DEEPFAKE: L’EVOLUZIONE DELLA BUFALA È UN CRIMINE DA COMBATTERE

L’evoluzione della bufala nota come DeepFake è la nuova frontiera del crimine che si nutre di truffe e menzogna.

Non si tratta più di disinformazione semplice ma complessa, finalizzata a manipolare l’informazione, truffare l’imprenditore e ‘sfigurare’ la politica a scopi criminali.

La direttrice del Servizio Polizia postale e delle comunicazioni, Nunzia Ciardi, consiglia di tenere alta la guardia. Ha spiegato che “le aziende, negli ultimi anni, sono preda di truffe informatiche sempre più sofisticate e in alcuni casi milionarie, portate avanti usando il social engineering, ad esempio con e-mail che sembrano inviate dall’amministratore delegato dell’impresa“. Il 96% dei casi si concentra nel mondo del porno ma i rischi di questa tecnica non vanno sottovalutati neanche in altri campi.

L’ecosistema digitale va reso sicuro dalle istituzioni attraverso nuove leggi e nuovi sistemi di sicurezza.

Non si tratta di semplici bufale: dietro al DeepFake può celarsi il ricatto, l’estorsione, il reato politico, il furto d’identità, il crimine finanziario.

Attraverso il DeepFake, a fine agosto di quest’anno, è stato truffato il CEO di un’azienda nel Regno Unito. Ha alzato la cornetta e si è sentito ordinare dal suo superiore di effettuare un bonifico urgente di 220.000 euro. La tecnica vocale rappresenta il fenomeno più preoccupante fra le truffe di nuova generazione. Si tratta di voci replicate alla perfezione, cloni identici all’originale di un’impronta vocale: basta utilizzare un software commerciale di sintesi vocale basato sull’intelligenza artificiale.

Esistono anche DeepFake che sovrappongono il volto di una persona ad un’altra ripresa in video attraverso cui si possono commettere crimini gravissimi nel mondo politico e finanziario. Con questa tecnica si potrebbe arrivare a simulare una videoconferenza dall’ad.

LE ORIGINI DEL DEEPFAKE

Il termine ‘DeepFake’ è stato coniato nel 2017 per descrivere una tecnica per la sintesi dell’immagine umana basata sull’intelligenza artificiale e sul deep learning, utilizzata per combinare e sovrapporre foto e video esistenti con video o immagini originali. Si riesce a fare tutto questo grazie alla tecnica di apprendimento automatico (la cosiddetta ‘rete antagonista generativa’). Con questa tecnica sono stati creati falsi video pornografici per il revenge porn o per danneggiare la reputazione di celebrità, VIP, politici, manager. Può essere usato anche per truffe.

La tecnica di machine learning è stata sviluppata nell’ambito della ricerca nelle istituzioni accademiche e in ambito amatoriale online.

In varie situazioni (dalla politica al porno), gli infelici protagonisti del Deep Fake sono stati finora Gal Gadot (prima vittima in assoluto), Nancy Pelosi, Barack Obama, Nicolas Cage, Emma Watson, Ariana Grande, Katy Perry, Taylor Swift, Scarlett Johansson, Donald Trump, Angela Merkel, Matteo Renzi, Vladimir Putin, Mark Zuckerberg ed altri ancora.

Fu la rivista Vice a riportare, per la prima volta nel mese di dicembre 2017, il fenomeno dei deepfake diffondendo la notizia su altri media.

L’APPLICAZIONE FAKEAPP

A gennaio 2018 è stata lanciata un’applicazione denominata FakeApp, che utilizza una rete neurale artificiale, con cui gli utenti possono creare facilmente e condividere video con volti facili da scambiare. Esistono alternative open-source al programma originale di questa app, tra cui DeepFaceLab, FaceSwap e myFakeApp.

L’intelligenza artificiale è in grado di ricomporre i movimenti della bocca e dettagli come il movimento delle rughe attorno alle labbra o al mento. E’ capace di realizzare clip audio-video ad alta definizione in cui il soggetto parla e si muove in modo assolutamente naturale pronunciando frasi dette in altre occasioni o dette da altri.

Un video falsificato con la tecnica del DeepFake (il ‘falso profondo) è difficile smascherarlo anche in tribunale o, meglio, per provarne l’originalità, i tecnici devono possedere nozioni tecnico-scientifiche avanzate in fase di analisi dell’image processing.

REAZIONI E SOLUZIONI AL DEEPFAKE

Twitter ha annunciato la proposta di una nuova policy: in futuro, potrebbe avvisare gli utenti segnalando video DeepFake, manipolati, ma senza rimuoverli.

Il sito porno Pornhub ha pianificato il blocco di questo tipo di contenuti fake.

A giugno di quest’anno, Mark Zuckerberg ha annunciato che Facebook non rimuoverà i DeepFake con la scusa che non esiste “una politica che stabilisca che le informazioni pubblicate su Facebook debbano essere vere”. In realtà, è difficile riconoscere i DeepFake e Facebook non ha intenzione di ingaggiare l’ennesima battaglia contro le fake news, dopo i ripetuti fallimenti in questo senso.

Vedere per credere”. La vecchia idea che le immagini non mentono non vale più.

Sul web bisognerebbe comportarsi come se ogni giorno fosse il primo d’aprile. Il rischio è di trovarci presto di fronte ad un collasso della realtà in cui nessuno saprà più a cosa credere o non credere.

Nel Regno Unito, i produttori di materiali deepfake sono perseguibili per molestie, ma c’è la volontà di introdurre un crimine specifico.

In Cina, da gennaio 2020, pubblicare un contenuto falso tramite l’intelligenza artificiale o la realtà aumentata senza specificarlo sarà punibile come reato penale. La Cina segue così l’esempio legislativo della California considerando che i deepfake potrebbero “mettere a rischio la sicurezza nazionale, distruggere la stabilità sociale e violare diritti e interessi di singoli individui”. In effetti, potrebbero creare tensioni diplomatiche, incidere sulle decisioni geopolitiche di un governo. Le piattaforme dovranno adottare tecnologie finalizzate a individuare contenuti falsi al loro interno.

La scorsa primavera, il Parlamento europeo ha pubblicato un rapporto che analizza gli effetti del fenomeno in un contesto politico.

Anche in Italia, i dati preoccupano: online circolerebbero circa 15 mila video deep fake, di cui il 96% a contenuto pornografico.

L’ENORME DATABASE DI GOOGLE E UN PAIO DI APP

Dopo Facebook, che insieme a Microsoft ha lanciato l’iniziativa Deepfake Detection Challenge, anche Google è scesa in campo per contrastare i rischi del deepfake.

Google ha distribuito un enorme database di video manipolati per facilitare l’addestramento dei programmi che dovranno combatterli.

Sono ben 3 mila i video prodotti dall’intelligenza artificiale in collaborazione con 28 attori, che andranno a implementare il progetto FaceForensics, curato dalla Technical University di Monaco e dall’Università Federico II di Napoli. In questo modo, Google punta a creare un ampio dataset utile ad addestrare e testare tool di rilevamento automatico.

Diamo credibilità alle immagini che vediamo, in grado di ingannare i nostri sensi, questo è il guaio.

Sensibilizzare l’utente ed aumentare il suo livello di diffidenza è fondamentale. Perché? Perché i deepfake agiscono purtroppo proprio sui principali sensi (vista e udito) che maggiormente condizionano il comportamento umano e portano, più o meno inconsciamente, a stabilire cosa sia vero o falso.

Oggi, un’azienda non può più permettersi di gestire la comunicazione esterna come succedeva pochi anni fa.

Un paio di start up, la statunitense Truepic e la britannica Serelay, stanno sviluppando applicazioni che permettono di aggiungere una particolare filigrana alle foto originali per dimostrarne l’inconfutabile veridicità in caso di diffusione manipolata.

Truepic sta lavorando anche ad un software in grado di identificare i fotogrammi falsi dei video analizzando alcuni dettagli (come riflessi negli occhi, capelli, orecchie).

SERVE L’INTRODUZIONE DI UN NUOVO REATO PER IL DEEPFAKE

La nuova temibile minaccia del Deep Fake può trasformare l’ecosistema digitale in un mondo dove potrebbe risultare impossibile distinguere il vero dal falso.

Il mondo della politica potrebbe essere scosso da falsi video perfettamente credibili in cui politici e personaggi pubblici fanno dichiarazioni gravi, pesanti. Video diffusi su Internet.

Questa nuova minaccia è un’arma illegittima e pericolosa per creare notizie false (con scambio di identità) da dare in pasto all’opinione pubblica per manipolarla. Può seriamente danneggiare la reputazione di persone e aziende intervenendo nella politica a livello nazionale e internazionale.

Nel recente convegno “La minaccia del deep fake” a Palazzo Madama organizzato da Videocittà,  la presidente del Senato Elisabetta Casellati ha promesso “il Senato farà la sua parte” auspicando un intervento normativo.

Le parole della Casellati sono state fortemente condivise da Francesco Rutelli, da Francesco Pasteraro commissario di Agcom, dalla già citata Nunzia Ciardi a capo della Polizia Postale e dal giornalista Francesco Giorgino vittima di un recente deepfake in cui annunciava al Tg1 l’uscita dall’euro, il ritorno alla lira.

Non esiste una norma specifica che disciplini un fenomeno tanto grave. È necessaria una norma penale, introdurre un reato perseguibile a querela di parte. Bisogna colmare questa lacuna adeguando le leggi al progresso tecnologico.

È importante anche coinvolgere il pubblico in questa vera e propria battaglia culturale e puntare sulla formazione digitale aggiornando il sistema educativo.

Siamo assolutamente d’accordo.

Facciamo attenzione agli agguati informatici. Tutti.