Abusi sessisti con l’AI: le norme, il ruolo di Agcom e come segnalarli

Diletta Leotta, Selvaggia Lucarelli, Michelle Hunzicker, Chiara Ferragni, Angelina Mango, Elisabetta Canalis, Arisa, Nunzia Di Girolamo, Benedetta Parodi, Federica Nargi, Andrea Delogu, Caterina Balivo, Sophia Loren  come anche di Maria Elena Boschi e Cristina D’Avena. Sono solo alcune delle attrici, cantanti, presentatrici giornalisti italiane spogliate con l’AI che hanno subito una forma di nuova violenza sulle donne. Dopo il gruppo “Mia Moglie” e la piattaforma “Phica.ue” è infatti recentemente venuto alla scoperta, un altro sito, Social Media Girls, che  usa l’intelligenza artificiale per “spogliare” conduttrici, cantanti, attrici e politiche.

Per Elisa Giomi, sociologa e commissaria Agcom, sono «abusi basati sull’immagine», forme di violenza di genere. Occorre reagire, sul piano culturale, attraverso l’educazione sessuale e sentimentale nelle scuole, mentre, ricorda Giomi nell’intervista ad AlleyOop, «il contrasto ai contenuti illegali online passa dal regolamento europeo Digital Services Act, che impone alle piattaforme di prevenirli e rimuoverli».

Gli illeciti possono essere segnalati sul sito dell’Agcom ed è importante «anche la recente legge italiana sull’IA ha introdotto il reato che punisce fino a cinque anni di reclusione chi diffonde immagini, video o audio falsificati tramite intelligenza artificiale».

Commissaria Giomi come si può reagire a queste  nuove forme di violenza con nuove tecnologie?

Oggi si chiamano abusi basati sull’immagine e sono forme di violenza di genere con caratteristiche in parte nuove, connesse alla tecnologia, come maggiore viralità, impatto e “persistenza” – come abbiamo visto questi siti esistono da decenni – ma in realtà si basano su meccanismi antichi.

Un tempo per divertirsi o per ritorsione verso una ragazza se ne scriveva il nome accanto a un epiteto poco lusinghiero, che ne stigmatizza la sessualità, e adesso la si spoglia con l’AI ma il principio è sempre quello della degradazione sessuale violenta nei confronti delle donne, e quindi in definitiva della misoginia. Non esistono siti analoghi “a base” di uomini, infatti.

Quando poi si tratta di figure femminili pubbliche, che commettono il peccato mortale di occupare i terreni tradizionalmente maschili del potere, dell’autorevolezza, della visibilità, ridurle a corpo inconsapevolmente offerto allo sguardo e al dileggio di altri maschi frustrati è un modo per prendersi una rivincita e ristabilire le gerarchie, ricordando che le donne possono essere giornaliste, politiche, artiste, ma significheranno sempre e soprattutto sesso.

Occorre interrompere questa trasmissione intergenerazionale di immaginari tossici attorno alla sessualità, a cominciare dall’idea della prendibilità delle donne e della pressione alla performance che grava ancora sui maschi. Per questo serve l’educazione ai sentimenti e l’educazione sessuale nelle scuole di ogni ordine e grado, anche perché è quello l’arco temporale in cui si sviluppano le prime esperienze intime.

Quali strumenti normativi ci sono per contrastare questi fenomeni?

Il contrasto ai contenuti illegali online passa dal regolamento europeo Digital Services Act, che impone alle piattaforme di prevenirli e rimuoverli. L’Agcom che di questo regolamento è coordinatore in Italia può ordinare misure urgenti a tutela delle vittime. E’ importante dunque segnalare illeciti andando sul nostro sito. Anche la recente legge italiana sull’AI ha introdotto il reato che punisce fino a cinque anni di reclusione chi diffonde immagini, video o audio falsificati tramite intelligenza artificiale.

Il rischio discriminatorio dell’AI si manifesta anche quando gli algoritmi sono inficiati da bias, in che modo?

Sì, il rischio esiste, ma va chiarito di quale intelligenza artificiale e soprattutto di quale rischio parliamo. È una domanda fondamentale, perché spesso si tende ad annoverare le piattaforme algoritmiche, come i social e i motori di ricerca, sotto la stessa etichetta di “intelligenza artificiale”, anche perché a svilupparla spesso sono le stesse aziende. Ormai è noto che le piattaforme sono costruite per massimizzare l’attenzione. Selezionano e amplificano i contenuti sulla base di ciò che genera più interazioni, indipendentemente dalla qualità del contenuto. In questo contesto, gli stereotipi di genere, etnici e sociali trovano terreno fertile, perché i contenuti polarizzanti o mainstream, cioè conformisti, tendono a circolare più velocemente.

Le chatbot basate su AI generativa, invece, operano in un’altra logica. Non diffondono contenuti di massa, né premiano l’engagement. Generano risposte specifiche per il singolo utente sulla base della domanda formulata. Questo non le rende immuni da bias, ma il rischio è di natura diversa e di impatto marginale se comparato alle piattaforme. Qui la responsabilità sarebbe più tecnica e progettuale che commerciale o sociale perché la capacità di intercettare i bias della macchina dipende dalla  selezione dei dati fatta a monte dagli sviluppatori, dal tipo di verifica umana e dalla moderazione (etica) applicata al termine del processo di sviluppo dell’AI.

L’AI potrebbe in realtà diventare uno strumento per riconoscere e ridurre gli stereotipi, invece di perpetuarli, considerato che la vastità e diversità di dati su cui è addestrata, già oggi, presenta complessivamente bias minori di qualsiasi essere umano. In fondo, non è la macchina a scegliere come elaborare le risposte, siamo noi a decidere cosa insegnarle. E in questo insegnamento bisognerà porre la massima attenzione ai bias umani degli sviluppatori perché se gli stereotipi entrano nel cuore del processo di elaborazione delle AI riceveremo sempre risposte distorte e polarizzate.

Come si possono proteggere le categorie più fragili?

Proteggere le categorie più deboli oggi significa, prima di tutto, riconoscere che i “fragili” non sono una minoranza. Con l’intelligenza artificiale generativa, tutti gli utenti non professionali, vale a dire oltre il 70%, sono soggetti ai rischi da uso improprio dell’AI. Per usare i chatbot in modo critico serve un livello di competenza linguistica e cognitiva che non è affatto scontato. Saper porre le domande giuste, comprendere i limiti delle risposte e distinguere un risultato statistico da un fatto verificato non sono abilità comuni, ma decisive nella “autoprotezione” da bias.

Sì, dobbiamo insegnare agli utenti ad autotutelarsi e prevenire le domande “errate” se vogliamo mitigare il più possibile le distorsioni delle risposte fornite dalle AI. La fragilità, dunque, non è sociale o economica, ma cognitiva. I nostri bias umani, confermativi, selettivi, di frame, di prospettiva si riverberano e si amplificano attraverso i chatbot. Se l’utente non è in grado di riconoscerli e si affida alla macchina senza spirito critico rischia di restare imprigionato nella propria visione del mondo, convinto di aver trovato una verità oggettiva che invece è ben lontana dalla realtà.

Che cosa possono fare le istituzioni nazionali?

Le istituzioni nazionali possono svolgere un ruolo determinante nello sviluppo e nella diffusione delle competenze sull’intelligenza artificiale. Non si tratta solo di far conoscere che cos’è l’IA, ma di garantire ai cittadini un utilizzo consapevole. Questo impegno è fondamentale per evitare che il digital divide si ampli ulteriormente, sovrapponendosi a quello già esistente, che secondo i dati Eurispes 2025 continua a penalizzare gli anziani per la scarsa dotazione tecnologica e i minori per competenze insufficienti.

In questa direzione si colloca l’articolo 24 della legge italiana sull’intelligenza artificiale, che prevede percorsi di alfabetizzazione e formazione sull’uso dei sistemi di IA, includendo attività universitarie e di alta formazione artistica musicale per la comprensione della AI. Tuttavia, la norma è a invarianza finanziaria e ciò significa che le amministrazioni dovranno attuare queste disposizioni utilizzando risorse già disponibili, senza nuovi stanziamenti.

E a livello internazionale?

A livello internazionale, il tema dell’alfabetizzazione sull’IA è considerato prioritario. Un esempio significativo è l’Inghilterra che ha già approvato un piano nazionale di prevenzione del AI digital divide che arriva fino al 2035 e che entro il 2030 punta a formare 7,5 milioni di lavoratori, un quinto della forza lavoro. Il programma, in collaborazione con aziende come Microsoft, Google e IBM mira a sviluppare sia competenze di base, come uso di chatbot cioè prompting e LLM, analisi dati ecc., sia competenze settoriali, come finanza, sanità, legal, ecc..

Parallelamente, lo scorso giugno il governo ha lanciato TechFirst, stanziando 187 milioni di sterline per diffondere la cultura digitale e l’AI nelle scuole e comunità. Saranno coinvolti 1 milione di studenti delle scuole secondarie in tre anni e sono previsti fondi e borse per giovani e innovatori (programmi TechYouth, TechGrad, TechExpert, TechLocal).

Un altro esempio è la Germania che ha previsto investimenti pari a 3 miliardi di euro entro il 2025, cui si aggiungeranno risorse dei Länder e dell’industria privata. Il piano dedica particolare attenzione alle competenze, prevedendo la creazione di almeno 100 nuove cattedre universitarie in materia di IA e la nascita di 12 centri e laboratori per consentire alle PMI di sperimentare soluzioni innovative.

E infine, la Francia ha annunciato un piano da 109 miliardi di euro, sostenuto da investimenti privati nazionali e internazionali. Oltre alla costruzione di data center di nuova generazione, il progetto include la creazione di un campus dedicato all’IA e centri di ricerca, con l’obiettivo di formare persone e sviluppare un ecosistema competitivo che integri infrastrutture, ricerca e formazione avanzata.

***

La newsletter di Alley Oop

Ogni venerdì mattina Alley Oop arriva nella tua casella mail con le novità, le storie e le notizie della settimana. Per iscrivervi cliccate qui.

Per scrivere alla redazione di Alley Oop l’indirizzo mail è alleyoop@ilsole24ore.com