Intelligenza artificiale Sicurezza informatica

PERICOLI DELL’INTELLIGENZA ARTIFICIALE: RISCHI SICUREZZA INFORMATICA

 

Vale miliardi di euro ogni anno il fatturato del crimine informatico, e a farne le spese sono le aziende, ma anche i singoli individui. Un fenomeno in ascesa verticale rispetto al quale i leader aziendali sono ancora ben poco sensibili, con il risultato di esporre la propria organizzazione a conseguenze potenzialmente disastrose.

Intermezzo promozionale ... continua la lettura dopo il box:

Intelligenza artificiale: molteplici chance. Ma anche molti rischi. La AI rischia di trasformarsi in un’arma in mano a cybercriminali. L’intelligenza artificiale – se violata dagli hacker – rischia di prestarsi ad una serie di usi criminosi che minacciano la sicurezza. Secondo lo studio la tecnologia potrebbe essere usata per insegnare alle macchine a diventare hacker, sferrando cyberattacchi automatizzati più potenti.

Leggi anche: Intelligenza artificiale: MIT e il suo progetto innovativo

Gli effetti negativi dell’intelligenza artificiale
Ormai è comune leggere sugli organi di informazione dei danni colossali (valutati nel mondo in oltre 500 miliardi di euro, che saliranno a 3000 per il 2020) provocati dal cyber crime, termine col quale ci si riferisce alle azioni di singoli o di organizzazioni criminali tese a lucrare o a danneggiare i soggetti vittime di questi attacchi informatici.

“La proliferazione sfrenata di tecnologie di intelligenza artificiale potrebbe consentire nuove forme di criminalità informatica, perturbazioni politiche e persino attacchi fisici entro cinque anni”, afferma un gruppo di 26 esperti di tutto il mondo che abbracciano il mondo accademico, la società civile e l’industria.

“Man mano che le funzionalità di IA diventano più potenti e diffuse, ci aspettiamo che il crescente utilizzo dei sistemi di intelligenza artificiale porti all’espansione delle minacce esistenti, all’introduzione di nuove minacce e al cambiamento del carattere tipico delle minacce”, afferma il rapporto. Sostengono che: “i ricercatori devono considerare il potenziale abuso di IA molto prima, e lavorare per creare quadri normativi appropriati per prevenire usi dannosi dell’IA”.

Se il consiglio non viene seguito, avverte il rapporto, è probabile che l’intelligenza artificiale rivoluzionerà la vita di tutti i giorni. Nella sfera digitale, dicono, l’IA potrebbe essere utilizzata per abbassare la barriera di controlli per effettuare attacchi dannosi. La tecnologia potrebbe automatizzare la scoperta di bug di software critici o selezionare rapidamente potenziali vittime di reati finanziari. Potrebbe anche essere usato per abusare della profilazione algoritmica in stile Facebook per creare attacchi di “social engineering”progettati per massimizzare la probabilità che un utente clicchi su un collegamento dannoso o scarichi un allegato infetto.

Oppure l’IA potrebbe semplicemente eseguire “attacchi denial-of-information”,generando così tante false notizie convincenti che le informazioni legittime diventano quasi impossibili da distinguere dal rumore. Uno degli autori del rapporto, ha dichiarato: “Viviamo in un mondo che potrebbe diventare irto di pericoli quotidiani dall’uso improprio di IA e abbiamo bisogno di assumere la proprietà dei problemi – perché i rischi sono reali. Ci sono scelte che bisogna fare ora, e il nostro rapporto è un invito all’azione per governi, istituzioni e individui in tutto il mondo”.

Intermezzo promozionale ... continua la lettura dopo il box:

Leggi anche: Utilizzare Google Clip per capire la tecnologia dell’intelligenza artificiale

Leggi anche: Sicurezza informatica: come difendersi da Hacker e Virus 1a parte

Come far fronte alle concrete minacce del crimine informatico
Questo rapporto suggerisce ampi approcci che potrebbero aiutare: ad esempio, come progettare software e hardware per renderli meno hackerabile e quale tipo di leggi e regolamenti internazionali potrebbero funzionare in tandem con questo. Il rapporto riconosce che l’intelligenza artificiale è la miglior difesa contro l’intelligenza artificiale, ma sostiene che “la difesa basata sulla’ AI  non è una panacea, specialmente quando guardiamo al di là del dominio digitale”.

“Occorre anche lavorare di più per capire il giusto equilibrio di apertura nell’intelligenza artificiale, sviluppare misure tecniche migliorate per verificare formalmente la robustezza dei sistemi e assicurare che i quadri politici sviluppati in un mondo meno infetto di IA si adattino al nuovo mondo che stiamo creando “.

“Il cyber crime – hanno detto i relatori – non solo riguarda già moltissime aziende, ma potenzialmente tutte, al punto che oggi occorre porsi il problema non tanto del “se” si verrà attaccati, ma del “come” e  “quando” questo si verificherà. Il tema della cyber security è dunque un’esigenza comune e sempre più urgente, che le aziende si devono porre”.

La cyber security è dunque diventata una priorità che deve essere riconosciuta non solo dai CIO delle imprese, che ne sono ben consapevoli, ma da chi sta nella “stanza dei bottoni”, ossia dai CEO e dai membri del board, che hanno oggi il compito di mettere in sicurezza l’azienda, attraverso un processo non solo tecnologico, ma di sensibilizzazione e preparazione di tutti i dipendenti

 

https://www.business.it/pericoli-dellintelligenza-artificiale-rischi-sicurezza-informatica/