La Lega usa immagini create con l’intelligenza artificiale contro i migranti

Il partito e il suo leader Salvini le sfruttano sempre di più, con un particolare e curioso accorgimento
Pagella Politica
Poliziotti aggrediti, ragazze minacciate con un coltello, manifestazioni violente, bambini in pericolo: da tempo le pagine social ufficiali della Lega e del suo leader Matteo Salvini – su Facebook, Instagram e X – sono piene di post che rimandano a casi di cronaca con protagonisti immigrati, spesso di fede musulmana. 

Rispetto al passato, però, è cambiato un elemento importante: oltre a titoli come “Somalo frattura una mano a un poliziotto. Appena scarcerato, ne prende altri a testate” o “«Lo dice l’Islam»: iraniano abusa della moglie e pesta il figlio”, la Lega accompagna i post con immagini create con l’intelligenza artificiale, che a prima vista sembrano vere.

Non sono semplici illustrazioni: per rendere le scene più credibili, i volti delle persone raffigurate – che non esistono davvero con quelle sembianze – sono spesso pixelati, ossia coperti con dei pixel, come se si volesse tutelarne la privacy.
Questa scelta può sembrare paradossale, ma risponde a una precisa strategia comunicativa, che non è unica in Europa.

I post fatti con l’IA

Il contrasto all’immigrazione irregolare e la difesa della “identità” italiana sono tra i temi centrali della comunicazione della Lega e di Salvini, soprattutto sui social network. Da anni il partito rilancia frequentemente notizie di cronaca che riguardano stranieri accusati di violenze, abusi o altri reati. Da un po’ di tempo, a queste notizie si uniscono le immagini create con l’intelligenza artificiale.

La struttura dei post è quasi sempre la stessa: un titolo d’impatto e l’immagine. Il titolo riprende spesso articoli pubblicati da testate giornalistiche e racconta episodi di violenza contro pubblici ufficiali, abusi su minori e su donne, molestie, violenze sessuali o rapine. L’immagine, invece, è creata con l’intelligenza artificiale e “mette in scena” il reato descritto, rappresentando in modo più o meno realistico vittime e colpevoli, entrambi con il volto oscurato. In molti casi, nella didascalia del post si chiede l’espulsione o pene esemplari per gli autori presunti del crimine.
Secondo le verifiche di Pagella Politica, tra marzo e aprile di quest’anno la Lega e Salvini hanno pubblicato almeno 17 post con immagini di persone create con l’intelligenza artificiale. L’uso di questa tecnologia è riconoscibile grazie a vari indizi: per esempio, cercando online le immagini con la tecnica della “ricerca inversa”, non si trovano risultati, segno che non provengono da fonti esistenti; inoltre, molte immagini presentano difetti tipici dell’intelligenza artificiale, come mani con dita distorte.

Perché pixelare i volti?

Ma se le persone raffigurate non sono reali, perché coprire occhi e volti con pixel? Non c’è una risposta certa, ma si possono formulare alcune ipotesi.
Un motivo può essere il tentativo di rendere più realistica l’immagine: di solito, mascherare il volto di una persona con i pixel è una tecnica usata per preservare l’identità degli individui coinvolti nei casi di cronaca, in particolare i minori. Un altro motivo potrebbe essere nascondere i limiti dell’intelligenza artificiale: per quanto le immagini create con questa tecnologia siano sempre più realistiche, le espressioni del volto e degli occhi hanno ancora dei difetti. 

In ogni caso, la scelta di coprire i volti sembra arbitraria, dato che non trattandosi di persone reali non c’è il rischio di violare la privacy di nessuno. Questa strategia della Lega diventa ancora più particolare se si confronta con l’uso che fanno altri partiti delle immagini create con l’intelligenza artificiale.

Una strategia diffusa

In base alle nostre verifiche, per ora nessun altro partito italiano sta usando così tanto l’intelligenza artificiale per creare immagini da pubblicare sui social network. Il partito di Salvini, però, non si è inventato nulla: altri partiti europei di destra o estrema destra, come Alternative für Deutschland (AfD) in Germania, usano da mesi l’intelligenza artificiale per la produzione di contenuti social.

Per esempio, lo scorso gennaio la leader di AfD Alice Weidel ha pubblicato su X un video quasi interamente creato con l’intelligenza artificiale: da un lato mostravano donne e bambini sorridenti, dall’altro scene di disordini e video manipolati dell’ex cancelliera Angela Merkel mentre si faceva selfie con alcuni migranti. Il messaggio era chiaro: «Ti ricordi quanto era bella un tempo la Germania?». Proprio questa scritta aveva fatto discutere, perché il passato mostrato nel video – fatto di immagini idealizzate e false – non era mai esistito.

Il partito tedesco di estrema destra usa abitualmente immagini create con l’intelligenza artificiale nei suoi post online, che hanno sostituito quasi del tutto le immagini di repertorio. A differenza della Lega, però, AfD non copre mai i volti delle “persone” raffigurate, anche quando questi contenuti veicolano messaggi negativi.
Come hanno evidenziato i fact-checker tedeschi di Deutsche Welle, durante l’ultima campagna elettorale, in Germania sono stati creati con l’intelligenza artificiale diversi profili di presunti influencer, che sui social network pubblicavano video e contenuti in cui veicolavano messaggi di odio razziale e invitavano gli elettori a votare per AfD. 

Se volete saperne di più sui modi con cui un’immagine può essere alterata e su come verificare un contenuto vero da uno falso, puoi registrarti su Dora e frequentare il nostro video corso online dedicato.

ENTRA NELLA NOSTRA MEMBERSHIP

Riceverai:

✓ Una newsletter quotidiana con le notizie più importanti sulla politica
✓ Le guide in formato eBook sui temi del momento (la prossima è sui referendum)
✓ L’accesso ad articoli esclusivi e all’archivio
✓ La possibilità di comunicare direttamente con la redazione
ATTIVA UN MESE DI PROVA GRATUITA
Newsletter

Conti in tasca

Ogni giovedì
Si dice che l’economia ormai sia diventata più importante della politica: in questa newsletter Massimo Taddei prova a vedere se è vero. Qui un esempio.

Ultimi articoli