
L’intelligenza artificiale non è imparziale e neanche neutrale ma tende a riflettere e talvolta amplificare i bias, i pregiudizi, esistenti nella realtà. Inoltre i sistemi di AI pensano al maschile, ad esempio, adottando il genere maschile come standard. Altre volte le donne sono associate a ruoli domestici, gli uomini a posizioni di alto profilo. Tutto ciò è sotto gli occhi anche della comunità scientifica, ed è molto ben spiegato nel libro di Laura Venturini “Prompt Mindset”. Ci sono tanti esempi di aumento del gender gap tramite AI, a partire dagli effetti sul recruiting. «Se un data set di training per il reclutamento – esemplificano Paolo Lupi e Antonio Perrucci nell’opera da loro curata ‘Intelligenza artificiale e mercato del lavoro’ – di specialisti It contiene prevalentemente profili maschili l’algoritmo tenderà a preferire candidati uomini, perpetuando la sotto-rappresentazione femminile del settore».
Ora il problema, visto che con l’AI bisognerà necessariamente fare i conti, è cercare di controbilanciare questi bias. Per non farli arrivare anche nei prodotti delle nuove tecnologie, perpetuando antichi pregiudizi patriarcali.
Tecniche ex post per evitare i bias, anche quelli di genere
Il lavoro, e scienziati e scienziate ne sono a conoscenza, è molto ma sono stati già individuati vari modi per intervenire. «Quello più corretto – spiega Daniela Giordano, docente di Intelligenza Artificiale dell’Università di Catania – è intervenire sulla qualità dei dati su cui si allena il sistema. Quindici anni fa – racconta – lavoravamo su dati etichettati, i data set venivano creati. Oggi con l’AI generativa i modelli hanno ‘ingurgitato’ tutto lo scibile esistente su Internet, libri, testi, Wikipedia: di fatto i large language model imparano la struttura del linguaggio senza etichettare i dati. Vengono allenati mascherando parti del testo e insegnando alle reti neurali a predire le parti mascherate. Se sono esposti a contenuti tossici o ‘sbilanciati’, tipo la rappresentazione della donna in una posizione subalterna, il prodotto sarà conseguentemente ‘sbilanciato’. Una soluzione è cercare di pulire i dati prima, bisogna cioè bilanciare nel data set la rappresentatività delle classi che il sistema deve imparare a riconoscere».
Gli interventi per “aggiustare” il tiro
Giordano, laureata nel 1990, è un cervello in fuga (per 8 anni in Canada dove si è occupata già nel secolo scorso delle prime forme di intelligenza artificiale basata su reti neurali) che ha scelto di rientrare, in Italia, al Sud, nella città dell’Elefante. «Se si controlla il processo – spiega – si può avere un miglioramento. A questo proposito stanno prendendo piede varie tecniche ex post. Ad esempio c’è la soluzione dell’unlearning, cioè far disimparare all’algoritmo quello che ha imparato: si può utilizzare sia per bilanciare i bias sia per risolvere i problemi di privacy. C’è anche la possibilità, infatti, che l’utente ritiri il permesso di far usare i propri dati, ad esempio quelli contenuti in una cartella clinica nonostante anonimizzati, come previsto dall’Ai Act europeo che garantisce in questo caso il diritto di unlearning».
Un altro modo di intervenire, spiega la professoressa, è quello di mettere dei filtri ex post. «Si usa cioè un determinato large language model e poi si filtra il risultato a posteriori. Queste tecniche di filtraggio possono anche essere apprese basandosi sulle indicazioni di essere umani che hanno il compito di selezionare le risposte migliori fornite dal modello, e sono necessarie per garantire l’allineamento del modello ai valori della società e un minimo di sicurezza. Se si chiede al sistema come si possa costruire una bomba per realizzare un attentato, il sistema, ad esempio, non deve rispondere».
Le origini dei bias
Ma come si è arrivati a questa situazione? Perché rincorrere anche nelle nuove tecnologie una parità di genere che avrebbe dovuto essere ‘embedded’?
Innanzitutto bisogna partire dalla considerazione che oggi le donne sono ancora minoranza nel settore dell’AI: solo circa il 22% a livello globale sono donne e ancora meno in posizioni senior o come autrici di pubblicazioni (il 18% degli autori di ricerche Ai ). Per questo, ricorda Laura Venturini, organizzazioni internazionali come Unesco e Onu promuovono iniziative per colmare il gender gap tecnologico: il programma Women4Ethical AI di Unesco, per esempio, mira a formare reti di esperte e a supportare governi e aziende nel garantire pari rappresentanza femminile nello sviluppo dell’AI.
Laura Venturini, oggi consulente Seo, business strategist e imprenditrice, nasce come filologa, ma già agli inizi degli anni 2000 si è appassionata di siti web, e ha iniziato il suo lavoro incrociando on line, in un’epoca in cui Instagram e Facebook ancora non esistevano, cuccioli di cani abbandonati con persone disposte ad adottarli. Secondo lei, per risolvere davvero il problema oggi «occorre diffondere più consapevolezza. Anche gli uomini possono diventare più consapevoli sui rischi dell’algoritmo, non è solo un tema di presenza delle donne. L’obiettivo dunque è rendere più consapevole chi programma questi strumenti».
I numeri delle donne nell’AI parlano di problemi delle nostre società
Se intervenire ex post o ex ante sui dati si può, intervenire ancora più a monte cercando di eliminare i l’origine dei bias, sarebbe l’optimum. Ci vorrà probabilmente tempo, ma per non incappare nei pregiudizi degli algoritmi bisogna innanzitutto eliminare i pregiudizi dalla realtà. Lo conferma Luciano Floridi, filosofo e tra i maggiori esperti di intelligenza artificiale: «Occorre più formazione, borse di studio, iniziative, ma serve soprattutto un cambiamento culturale visto che si pensa ancora in termini di lavori per ragazze e lavori per i ragazzi. Mentre sull’ aspetto formativo la questione si gioca sulla buona volontà delle aziende, sul versante culturale la soluzione è più difficile. I numeri delle donne nell’Ai parlano di problemi che sono alle fondamenta delle nostre società».
***
La newsletter di Alley Oop
Ogni venerdì mattina Alley Oop arriva nella tua casella mail con le novità, le storie e le notizie della settimana. Per iscrivervi cliccate qui.
Per scrivere alla redazione di Alley Oop l’indirizzo mail è alleyoop@ilsole24ore.com