L’IA non è neutrale e il prezzo lo pagano soprattutto le donne

Nell’Ue quattro tecnici informatici su cinque sono uomini, uno squilibrio che si ripropone anche nell’intelligenza artificiale
AFP
AFP
L’idea che la tecnologia sia neutrale è sempre stata, più che una realtà, una promessa. Con l’intelligenza artificiale, quella promessa ha mostrato tutta la sua fragilità perché gli algoritmi non hanno eliminato le disuguaglianze, ma le hanno apprese e spesso amplificate.

Secondo la ricerca “Women in the age of AI-enabled disinformation” pubblicata a marzo dallo European Parliamentary Research Service, che fornisce ai membri del Parlamento europeo analisi indipendenti su questioni relative all’Ue, «le tecnologie digitali rappresentano un’arma a doppio taglio per i diritti delle donne e la loro rappresentazione nella sfera informativa».

Il punto è che i dati non sono neutri e, come sostiene la scrittrice Caroline Criado Perez nel suo libro Invisibili (Einaudi, 2020), quando i dati non includono le donne, le donne scompaiono. Con l’intelligenza artificiale questa invisibilità rischia di diventare sistemica.

I numeri del divario

Nell’Unione europea, nel 2024 l’80,5 per cento degli specialisti ICT (Information and communication technologies, cioè esperti di sistemi informatici e nuove tecnologie) erano uomini, contro il 19,5 per cento di donne. In Italia il gap è ancora più ampio: 82,9 per cento uomini e 17,1 per cento donne.

Il divario si ripropone nel campo dell’intelligenza artificiale. Secondo il World Economic Forum, «la forza lavoro tecnologica continua a essere dominata dagli uomini, con solo un quarto di tutti i lavori tecnologici detenuti da donne e la maggior parte dei ruoli tecnici e di leadership detenuti da uomini. In particolare, le donne costituiscono solo il 22 per cento dei professionisti dell’IA a livello globale».

Come ha spiegato la giornalista ed esperta di dati Donata Columbro a Fanpage, diversi gruppi di persone – tra cui le donne – sono stati storicamente esclusi dalle statistiche, e quell’esclusione «è andata a influenzare anche la costruzione di dataset che poi sono stati usati per addestrare i modelli di intelligenza artificiale. Se all’interno di questi dataset manca tutta una parte di popolazione si continuano a perpetrare gli stereotipi e i bias, o a fare degli errori anche molto gravi». Semplificando, i sistemi di intelligenza artificiale addestrati su dati distorti amplificano i bias di partenza. Per esempio, una ricerca della ONG Women’s World Banking ha mostrato che gli algoritmi di credit scoring – un sistema statistico usato per valutare l’affidabilità di chi richiede un prestito – tendono a penalizzare le donne nell’accesso ai finanziamenti perché le ritengono meno affidabili degli uomini.
Pagella Politica

Iscriviti a "Politica di un certo genere"


È la newsletter settimanale e gratuita di Pagella Politica in cui le protagoniste sono donne, lavoratrici, madri, politiche e persone della comunità LGBT+.

Le conseguenze dell’IA

La diffusione dell’intelligenza artificiale generativa ha accelerato e amplificato il problema, aumentando sia la sua portata che la velocità con cui si manifestano disuguaglianze e discriminazioni. I deepfake ne sono forse l’esempio più evidente: secondo un report del 2023 citato nello studio dello European Parliamentary Research Service i video deepfake sono aumentati del 550 per cento dal 2019 al 2023. Il 98 per cento di questi video è pornografia non consensuale e il 99 per cento delle persone colpite dai deepfake non consensuali sono donne.

Come si legge nello studio, «fin dal suo lancio, la tecnologia deepfake è stata un mezzo chiave per la violenza di genere facilitata dalla tecnologia, causando gravi danni psicologici, e può anche danneggiare la partecipazione democratica screditando donne e minoranze, mettendole a tacere e scoraggiandole dall’esprimere la propria opinione o persino dal candidarsi a cariche pubbliche».

Un rapporto del gennaio 2026 dell’ONG Center for Countering Digital Hate ha sottolineato che Grok – il chatbot di intelligenza artificiale di X – ha generato tre milioni di immagini sessualizzate, incluse 23 mila di minori, in undici giorni. Alla generazione di queste immagini si aggiunge poi la diffusione perché Grok può pubblicare il contenuto su X, consentendo agli utenti di monetizzarlo.

Che cosa sta facendo l’Unione europea

Come si legge nel report, l’Unione europea sta cercando di intervenire su più fronti. Ad esempio, il Digital Services Act obbliga le grandi piattaforme a valutare e ridurre i rischi sistemici, inclusa la violenza di genere online. Mentre l’AI Act – che sarà pienamente applicabile da agosto 2026 – introdurrà obblighi di trasparenza come l’etichettatura dei contenuti generati dall’intelligenza artificiale. Della lista fa parte anche la direttiva europea sulla violenza contro le donne (2024), che impone agli Stati di criminalizzare pratiche come la diffusione non consensuale di immagini intime, anche generate con l’IA, entro il 2027.

In questo senso il Parlamento europeo può avere un ruolo centrale, definendo le norme e controllandone l’applicazione a livello sovranazionale. Accanto alle leggi, però, servirà anche un cambiamento culturale perché nessuna tecnologia potrà essere equa e promuovere la parità di genere fino a quando non lo saranno i contesti in cui viene progettata.

Siamo tutti dalla stessa parte

Se sei qui, è perché credi anche tu in un’informazione politica libera, indipendente da partiti, influenze e agende.
Da 14 anni verifichiamo quello che dicono i politici, e oltre 5.000 fact-checking dopo continuiamo a fare la nostra parte mettendo al centro i fatti e i numeri.
Se pensi che questo lavoro serva, puoi darci una mano.
SOSTIENI IL GIORNALISMO INDIPENDENTE
Newsletter

Politica di un certo genere

Ogni martedì
In questa newsletter proviamo a capire perché le questioni di genere sono anche una questione politica. Qui un esempio.

Ultimi articoli