ALLERTA PERICOLI INFORMATICI deepfake

E’ possibile creare falsi video porno con il tuo viso : arrivano i video contraffatti con l’intelligenza artificiale

E’ possibile creare falsi video porno con il tuo viso : arrivano i video contraffatti con l’intelligenza artificiale
Scritto da gestore

Sicurezza informatica, i pericoli del 2019

Il 2019 potrebbe essere un annus horribilis per la sicurezza informatica. Ecco i rischi peggiori secondo i ricercatori del MIT
12 Gennaio 2019 – Non che il 2018 sia stato “un’ottima annata”, anzi. Ma il 2019 potrebbe essere addirittura peggiore, sul fronte della sicurezza informatica. L’allarme arriva dagli esperti del Massachusetts Institute of Technology che, in concomitanza con l’inizio del nuovo anno, hanno analizzato cosa accaduto nei 12 mesi precedenti e diffuso alcune previsioni sui maggiori pericoli di sicurezza informatica del 2019.

Intermezzo promozionale ... continua la lettura dopo il box:

Il 2018, fanno notare gli scienziati statunitensi, è stato a dir poco catastrofico: tra falle di progettazione che hanno riguardato milioni e milioni di processori e furti di credenziali che hanno colpito decine (se non centinaia) di milioni di utenti inconsapevoli, è stato dimostrato una volta per tutte che sul fronte della sicurezza informatica c’è ancora molto da lavorare. E nel 2019 la situazione potrebbe ancora peggiorare: l’ingresso in campo dell’intelligenza artificiale non porterà vantaggi solo a chi “gioca in difesa”, ma fornirà armi potentissime anche agli hacker e agli altri cybercriminali.

Video contraffatti con l’intelligenza artificiale
Lo scorso anno, quando venne “presentati” per la prima volta al pubblico, era utilizzato per creare falsi video porno con attori che assumevano facce e sembianze di personaggi celebri (attori, cantanti e così via). Si chiama deep fake ed è un algoritmo che, sfruttando intelligenza artificiale e algoritmi di machine learning, è in grado di modificare a piacimento le immagini di un filmato. In particolare, deep fake può essere utilizzato per “scambiare” il volto di un personaggio di un video qualunque con quello di una persona a proprio piacimento: basta dargli in pasto qualche centinaio di foto grazie alle quali ricostruire i lineamenti del volto e il gioco è fatto. L’abilità di deep fake è così elevata che raramente una persona può accorgersi che sta guardando un video ritoccato.

Ora gli hacker potrebbero utilizzare algoritmi di questo genere per ottenere risultati completamente differenti. Non film porno falsi con protagonisti celebri, ma video con politici o dirigenti di grandi aziende ai quali far dire ciò che si vuole. Nel frattempo, infatti, deep fake ha acquisito l’abilità di un imitatore, ed è in grado di riprodurre la voce di chiunque senza colpo ferire. Così, ad esempio, i cybercriminali potrebbero creare video con Donald Trump o il Presidente cinese Xi Jinping e scatenare scontri diplomatici di vasta portata.

La “rivolta” dell’intelligenza artificiale
Come detto, sempre più aziende attive in questo settore utilizzano algoritmi di intelligenza artificiale per individuare minacce (malware, attacchi DDoS, diffusione di ransomware, botnet) prima che possano concretizzarsi e creare danni devastanti. Gli hacker, ovviamente, non stanno a guardare e, oltre a realizzare a loro volta algoritmi di AI per attacchi sempre più subdoli, stanno cercando di sfruttare a loro favore le infrastrutture create dalle software house di sicurezza informatica. Come? Intrufolandosi all’interno di questi algoritmi e utilizzandoli per i loro scopi. E, secondo gli analisti del MIT, il 2019 potrebbe essere l’anno in cui questa prospettiva diventa realtà.

Crittografia KO
Fino a oggi abbiamo creduto che ci fosse un argine indistruttibile capace di proteggere i nostri dati personali e le nostre conversazioni online dagli attacchi di qualunque hacker. Questo argine è rappresentato dalla crittografia, quell’insieme di algoritmi che riescono a “confondere” i nostri dati dentro stringhe casuali così che i cybercriminali, anche se riuscissero a impossessarsi di file o conversazioni, non sarebbero in grado di decifrarle. Questo argine, però, sembra essere sul punto di cadere proprio nel 2019. Colpa dell’informatica quantistica che, sfruttando i principi della fisica quantistica, permette di aumentare in maniera esponenziale le capacità di calcolo dei dispositivi informatici. Così, se per “rompere” un algoritmo di crittografia erano necessari anni e anni di calcoli, con un processore quantistico ci si potrebbe riuscire nel giro di pochi minuti. E visto che IBM ha presentato il primo PC quantistico commerciale nel corso del CES 2019, non è escluso che ciò possa accadere a breve.

Attacco al cloud
Con dati e applicativi che si spostano sempre più di frequente dai PC degli utenti ai server dei servizi di cloud computing, è “normale” che gli hacker e i cybercriminali puntino ad attaccare i fornitori di servizi anziché gli utenti. In questo modo, con un unico attacco ben assestato, sarebbero in grado di entrare in possesso dei dati di migliaia e migliaia di persone, senza esser costretti a replicare lo stesso attacco migliaia di volte. E il 2019, secondo il MIT, potrebbe essere l’anno in cui questa prospettiva diventa reale: gruppi di cybercriminali si stanno specializzando nel bucare le difese di server cloud o nel trovare falle nei client per accedere a questi servizi, così da potersi intrufolare senza destare sospetti.

https://tecnologia.libero.it/sicurezza-informatica-i-pericoli-del-2019-24984

Articoli correlati sui deepfake :