La proposta del PD per vietare i deepfake nella propaganda politica

Il testo sarà esaminato dalla Camera nelle prossime settimane, ma prima vanno risolti alcuni problemi
ANSA/ANGELO CARCONI
ANSA/ANGELO CARCONI
In Parlamento qualcosa si sta muovendo per limitare l’uso dei deepfake nella propaganda politica sui social network. A fine febbraio è infatti previsto in aula alla Camera l’inizio dell’esame di una proposta di legge del Partito Democratico che mira a contrastare l’uso di video o immagini di politici che sembrano reali, ma che in realtà sono stati creati o manipolati con l’intelligenza artificiale. La conferenza dei presidenti dei gruppi parlamentari della Camera ha fissato per il 23 febbraio l’avvio dell’esame in aula della proposta, a prima firma della vicepresidente Anna Ascani.

Il testo, attualmente all’esame della Commissione Affari costituzionali della Camera, è composto da cinque articoli e introduce alcune modifiche alla legge del 1956 che disciplina la propaganda elettorale. L’intervento normativo si inserisce in un dibattito politico avviato da tempo, che negli ultimi mesi si è intensificato proprio a causa della diffusione sempre più semplice e realistica di contenuti generati con strumenti di intelligenza artificiale.

In questo contesto, a dicembre 2025 tutti i partiti presenti in Parlamento, con l’unica eccezione della Lega, hanno sottoscritto un appello lanciato da Pagella Politica e Facta sull’uso dell’intelligenza artificiale nella propaganda politica. Nell’appello, presentato alla Camera, sono indicati tre impegni di base: non creare e non diffondere deepfake dei propri avversari politici; nel caso in cui un deepfake venga diffuso credendolo vero, rendere pubblico l’errore e non limitarsi a rimuoverlo; informare e sensibilizzare iscritti e sostenitori su questo tema.
La proposta del PD si colloca dunque in una cornice già delineata da un consenso politico piuttosto ampio sulla necessità di intervenire su questo tema. L’obiettivo dichiarato della proposta è garantire che le persone possano votare in modo libero e informato, basandosi su informazioni vere o comunque chiaramente riconoscibili come non autentiche. Per questo il testo stabilisce che, durante tutte le campagne elettorali, compresi i referendum, sia vietato creare o diffondere sui social network contenuti politici falsi o manipolati tramite intelligenza artificiale che imitano candidati, eletti, partiti o movimenti politici, che mostrano dichiarazioni o comportamenti mai avvenuti, che alterano immagini, video o voci in modo realistico e che sono realizzati appositamente per ingannare gli elettori o manipolare il voto.

Il controllo sul rispetto di queste norme verrebbe affidato all’Autorità per le garanzie nelle comunicazioni (AGCOM), che avrebbe il potere di imporre alle piattaforme social la rimozione dei contenuti illegali e di applicare sanzioni economiche nei confronti di chi non rispetta le nuove regole. La proposta, quindi, non si limita a enunciare divieti, ma individua anche un’autorità di vigilanza e strumenti concreti di intervento.

Un problema concreto

Negli scorsi mesi si sono verificati diversi casi, soprattutto all’estero, di politici che hanno diffuso sui social video deepfake di avversari politici, ledendone la loro immagine. 

Per esempio, a ottobre dello scorso anno George Freeman, deputato del Partito Conservatore britannico, aveva denunciato alla polizia la diffusione sui social di un video deepfake in cui annunciava di essersi unito a Reform UK, il partito di estrema destra guidato da Nigel Farage, cosa che però non era vera. In Italia casi di questo tipo sono stati finora più rari, ma negli ultimi mesi sono circolati sui social diversi contenuti deepfake diffusi da utenti comuni contro politici di tutti gli schieramenti. A ottobre, per esempio, era circolato un video falso del deputato Giovanni Donzelli, responsabile Organizzazione di Fratelli d’Italia, in cui commentava l’attentato subìto dal giornalista Sigfrido Ranucci sostenendo che Ranucci se la sarebbe sostanzialmente cercata. Altri video deepfake hanno coinvolto il vicepresidente del Consiglio Antonio Tajani, la parlamentare europea di Alleanza Verdi-Sinistra Ilaria Salis e la ministra del Turismo Daniela Santanché. 

Il problema diventa comunque più grave quando i deepfake cominciano a essere creati e pubblicati dai politici stessi. Questo è avvenuto a ottobre 2025, in Ungheria, quando Balázs Orbán, consigliere politico del primo ministro Viktor Orbán, ha diffuso un video deepfake in cui Péter Magyar, leader del partito di opposizione Tisza, pronunciava frasi mai dette, tra cui critiche al sistema pensionistico ungherese, giudicato troppo generoso. La questione rimane comunque più ampia, perché ci sono diversi casi problematici di uso dell’intelligenza artificiale da parte della politica che non ricadono nella definizione di deepfake di avversari. Per esempio, da tempo la Lega utilizza immagini create con l’intelligenza artificiale contro i migranti.

Sanzioni che non combaciano

In ogni caso, il percorso della proposta del PD potrebbe incontrare alcuni ostacoli. Fonti della Commissione Affari costituzionali hanno riferito a Pagella Politica che il testo potrebbe subire modifiche per essere adeguato alle norme già adottate dal governo in materia di contenuti generati con l’intelligenza artificiale e per evitare conflitti con la normativa europea di settore. A settembre dello scorso anno, infatti, il Parlamento ha approvato un disegno di legge del governo che introduce diverse disposizioni su questo tema.

Con quel provvedimento è stato inserito nel codice penale il nuovo reato di “illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale”, all’articolo 612-quater. Questa norma punisce con la reclusione da uno a cinque anni chiunque pubblichi o diffonda contenuti alterati con l’intelligenza artificiale senza il consenso della persona interessata, provocando «un ingiusto danno» nei suoi confronti. È una disciplina di carattere generale, non specificamente limitata all’ambito elettorale.

La proposta di legge del PD, invece, prevede una sanzione diversa e più mirata. Il testo stabilisce la reclusione da uno a quattro anni per chi diffonde contenuti ingannevoli manipolati con l’intelligenza artificiale con l’obiettivo specifico di alterare lo svolgimento delle elezioni o dei referendum. È quindi un reato più circoscritto, ma proprio per questo si pone il problema di come coordinare le due fattispecie nel caso in cui la proposta del PD dovesse diventare legge. Su questo punto sarà necessario chiarire se e come le due norme possano convivere senza sovrapporsi o entrare in conflitto.

Durante l’esame in commissione, a dicembre, Ascani aveva dichiarato di essere consapevole delle disposizioni già introdotte dal governo sul tema dell’intelligenza artificiale. Allo stesso tempo, aveva sostenuto che quelle norme non sono sufficienti e che servono interventi specifici per quanto riguarda la propaganda politica e il rischio di alterazione delle campagne elettorali.

Una questione di definizioni

Oltre al coordinamento con la legislazione nazionale, c’è poi la questione della normativa europea. La proposta di legge del PD introduce una serie di definizioni per garantire l’applicazione delle nuove regole contro i deepfake. Tra queste c’è quella di “propaganda politica”, definita come «le attività finalizzate alla preparazione, cessione, pubblicazione o diffusione, con qualsiasi mezzo, di un messaggio a favore o per conto di un attore politico o che sia inteso a influenzare l’esito di un’elezione o un referendum».

Secondo un dossier del Servizio studi della Camera, il nodo principale riguarda il rapporto tra questa definizione e quella di “pubblicità politica” contenuta nel regolamento europeo sulla trasparenza e il targeting della pubblicità politica. Il regolamento, approvato a marzo 2024, definisce la pubblicità politica come qualsiasi messaggio, diffuso con qualunque mezzo e di norma dietro compenso o nell’ambito di una campagna, che sia riconducibile a un attore politico oppure che sia destinato a influenzare elezioni, referendum, comportamenti di voto o processi legislativi. Lo stesso regolamento esclude però dalla pubblicità politica i messaggi di natura meramente privata o commerciale.

La proposta del PD non chiarisce invece se nella definizione di “propaganda politica” rientrino o meno anche i messaggi puramente privati o commerciali, come invece specificato dal regolamento europeo. Questo aspetto non è secondario, perché i regolamenti europei sono atti giuridici vincolanti che si applicano direttamente in tutti gli Stati membri dell’Unione europea. In caso di conflitto tra una norma nazionale e una europea, vale il cosiddetto “primato del diritto europeo”, che serve a garantire un’applicazione uniforme del diritto comunitario nei vari Paesi.

Insomma, il percorso verso un’eventuale approvazione della proposta di legge del PD contro i deepfake appare ancora lungo. Il testo è atteso in aula alla Camera a fine febbraio, ma restano da chiarire diversi punti, sia per adeguarlo alle norme nazionali già approvate sull’intelligenza artificiale sia per renderlo pienamente compatibile con la normativa europea.

Unisciti a chi crede in un giornalismo basato sui fatti, non sul tifo.

Entra nella nostra membership. Avrai accesso a:

• le guide sui temi del momento (è in arrivo quella sul referendum della giustizia);
• la newsletter quotidiana con le notizie più importanti sulla politica;
• gli articoli esclusivi e all’archivio;
• un canale diretto di comunicazione con la redazione.
PROVA UN MESE GRATIS
Newsletter

Politica di un certo genere

Ogni martedì
In questa newsletter proviamo a capire perché le questioni di genere sono anche una questione politica. Qui un esempio.

Ultimi articoli