Pubblicato: mercoledì 25 settembre 2019
Photo: Ansa
Che cosa sappiamo del deepfake di Renzi (e di tutti gli altri)

Il 23 settembre 2019 il programma satirico Striscia la notizia ha trasmesso un finto fuori onda con protagonista l’ex presidente del Consiglio Matteo Renzi. Nel video sembrava che Renzi deridesse alcuni degli esponenti del Partito democratico – da lui lasciato per fondare Italia viva – e altri membri del governo.

Striscia la notizia, nel corso della trasmissione, non ha specificato chiaramente che si trattava di un finto fuori onda ma lo ha fatto sul proprio sito.

Il video dunque non è reale ma è stato considerato tale da alcuni utenti, che l’hanno condiviso sui propri profili social commentando quanto dichiarato dal senatore come se si trattasse di dichiarazioni ufficiali.

Stiamo parlando di un tipo di video falso denominato deepfake ed è la prima volta che, in Italia, il fenomeno raggiunge la televisione generalista. Si tratta di filmati falsi, realizzati tramite l’intelligenza artificiale. Grazie ad essa si possono manipolare le immagini in modo che i personaggi presenti nei video dicano parole e movimenti che in realtà non hanno pronunciato o effettuato.

Che cosa sappiamo, ad oggi, di questi filmati? Come si distingue un video vero da uno falso? Si tratta sempre e solo di video? Quanto è diffuso questo tipo di disinformazione?

Abbiamo fatto chiarezza.

Un fenomeno già diffuso

Il deepfake, seppur poco conosciuto in Italia, è un fenomeno già noto da qualche tempo. Non si tratta solo della possibilità di manipolare video, ma anche singoli file audio per cambiarne il significato originale.

Vediamo di capire meglio di che cosa stiamo parlando.

Come ha precisato Poynter lo scorso dicembre, i deepfake sono entrati a far parte del mondo della disinformazione nel 2017. Gli strumenti tecnologici, se utilizzati in questa direzione, possono offrire diverse le possibilità: la riproduzione delle voci dei principali esponenti politici mondiali mentre veicolano messaggi diversi rispetto a quelli originali, la creazione di falsi video pornografici, l’eliminazione di interi oggetti da video reali.

Facciamo qualche esempio.

A novembre 2018 l’account dell’ufficio stampa della Casa Bianca ha pubblicato sul proprio profilo Twitter un video che mostra una discussione realmente avvenuta tra il presidente degli Stati Uniti Donald Trump e Jim Acosta, giornalista della Cnn. L’intento era quello di dimostrare che Acosta aveva messo le mani addosso alla donna incaricata di toglierli il microfono.

Il video condiviso non è però reale. Come dimostrato da Storyful (agenzia di social media intelligence con sede a Dublino), sono stati aggiunti alcuni frammenti al momento in cui il giornalista appoggia il suo braccio su quello della dipendente della Casa Bianca così da enfatizzare i suoi movimenti e farli sembrare violenti.

Altro caso è il video che, realizzato ad aprile 2018, mostra l’ex presidente degli Stati Uniti Barack Obama mettere in guardia sul potere del deepfake.

In realtà Obama non ha mai registrato questo video che, invece, è stato realizzato dal regista americano Jordan Peele in collaborazione con BuzzFeed per dimostrare quanto è semplice credere a ciò che si vede e difficile accorgersi che sia un fake.

I contenuti deepfake hanno raggiunto già oggi tutti i social network più utilizzati, compreso Instagram. Ad esempio, a giugno 2019 è stato condiviso su questa piattaforma un breve video in cui Mark Zuckerberg dichiarava, nel corso di un’intervista con CBSNews, di controllare «miliardi di dati rubati alle persone, tutti i loro segreti, le loro vite, il loro futuro». Si tratta, anche in questo caso, di un falso.

Come riconoscere un deepfake (e un cheap fake)

Ad oggi, riconoscere un deepfake non è semplice e non esistono specifici software. Si sta però lavorando in questa direzione.

Ad esempio, la Defense Advanced Research Projects Agency (Darpa) del Pentagono sta collaborando con alcuni dei maggiori istituti di ricerca americani per creare software in grado di riconoscere i deepfake. Tra i partner c’è anche l’Università del Colorado, che impegna parte dei suoi ricercatori nella creazione di deepfake convincenti così che questi possano poi essere successivamente utilizzati dai ricercatori che stanno lavorando allo sviluppo della tecnologia necessaria per riconoscerli.

O, ancora, la Serelay – una società di software che ha sede nel Regno Unito – sta sviluppando un software che sia in grado di esaminare ogni pixel presente in una foto o in un video.

Ci sono enti che hanno già preso provvedimenti. Nello Stato della Virginia, a luglio 2019, è stato approvato il Deep Fakes Accountability Act per punire chi diffonde video o immagini false senza il consenso della persona interessata. Questa norma prevede l’obbligo, per chi pubblica i contenuti, di dichiarare che il video è stato alterato e la possibilità, per chi è danneggiato dalla sua diffusione, di fare causa.

Ci sono però anche dei casi dove riconoscere se il video o l’audio in questione sono falsi è più semplice. Non stiamo più parlando di deepfake ma di cheap fake.

Quanto è semplice creare un cheap fake

Come spiegato da Data & Society e dai suoi esperti, con il termine cheap fake si indicano tutti quei video o audio di bassa qualità modificati con l’intento di manipolare l’informazione.

È ad esempio possibile realizzati con programmi come Photoshop, Sony Vegas Pro, ricontestualizzando i filmati e accelerando o rallentando i video.

Riconoscere un cheap fake è più semplice. Alcune strategie possono essere, ad esempio, analizzare frame per frame le movenze del volto, riconoscere le possibili imperfezioni del viso o delle labbra alle loro estremità così da rendersi conto se i concetti o le singole parole veicolate trovano riscontro in quanto si vede.

Ulteriore esempio che mostra quanto è semplice creare dei potenziali cheap fake è Zao, applicazione recentemente divenuta popolare in Cina.

Grazie a questa app è possibile sostituire il proprio volto a quello di alcune celebrità (tecnica conosciuta come face swap) creando con alcuni semplici passaggi un video condivisibile istantaneamente sui propri profili social o con i propri contatti.

Il successo dell’app ha messo in allarme il Congresso degli Stati Uniti. Nel caso in cui i volti delle celebrità fossero sostituiti da quelli dei principali esponenti pubblici, lo strumento rischierebbe di diventare un’applicazione di uso comune per veicolare delle potenziali fake news.

Ma non è tutto.

Ragionando su piccola scala, la semplicità con cui si dà vita a contenuti di questo tipo potrebbe far sì che dei cheap fake siano creati e utilizzati per altri scopi inserendosi, ad esempio, in ambiti di già difficile e delicata gestione quali le molestie o il bullismo.

Il reale pericolo di un’intera informazione deepfake

Se quanto scritto non bastasse per renderci conto di quanto questa nuova tecnologia può risultare pericolosa, ecco un altro caso.

A novembre 2018 l’agenzia stampa cinese Xinhua News Agency ha creato un intero telegiornale il cui presentatore – su modello del reale telegiornale Qui Hao – è interamente realizzato con la tecnologia usata per creare deepfake. I diversi movimenti sono stati perfettamente emulati su modello del reale presentatore che era poi potenzialmente (e artificialmente) in grado di recitare testi in diverse lingue.

Conclusione

Lo scorso 23 settembre Striscia la notizia ha mostrato al suo pubblico un finto fuori onda in cui Matteo Renzi sembrava deridere alcuni esponenti del Pd e del governo Conte.

Il programma satirico non ha esplicitamente specificato che si trattava, in realtà, di un deepfake, una manipolazione artificiale delle immagini che permette di far dire ai soggetti ripresi quello che si vuole.

Questo tipo di disinformazione è ancora poco conosciuta in Italia, tanto che diversi utenti hanno condiviso il video credendo si trattasse di un filmato reale. Il fenomeno è però diffusa all’estero e ne sentiremo, d’ora in poi, spesso parlare.

Logo
Logo
Logo
Logo