L’algoritmo non è di genere neutro. Il mondo della rete e dell’intelligenza artificiale è specchio della realtà e c’è il rischio di perpetuare, anche involontariamente, gli stereotipi e le discriminazioni che la attraversano, compresi quelli di genere. Ne abbiamo ragionato con Guido Scorza, componente del Garante per la privacy, anche per capire quali possono essere gli antidoti a questo rischio.
Sono diversi gli aspetti in cui si possono insinuare i pregiudizi di genere. Nei sistemi di recruiting aziendale che utilizzano algoritmi come primo filtro di selezione dei curricula, se si riproducono situazioni di disparità si ha un impatto sul punteggio assegnato; oppure nelle decisioni sulla visibilità delle immagini maschili e femminili, come riportato da una recente inchiesta del Guardian. Nei motori di ricerca come Google in cui gli algoritmi possono replicare la disparità nella organizzazione dei link e delle fonti di risposta o, con un impatto potenzialmente amplificato, nei nuovi strumenti di Intelligenza artificiale generativa come ChatGpt3 in cui l’algoritmo “fa la sintesi di quello che trova e propone la sua risposta” che, osserva Scorza, per molte persone a livello mondiale potrebbe essere vista come “molto prossima al verbo di un oracolo”.
Peraltro, la questione dell’impatto dei sistemi di Intelligenza artificiale generativa ha una valenza più ampia, come dimostra il recente intervento del Garante per la privacy che ha ordinato la sospensione dei trattamenti di dati personali connessi all’attività in Italia di ChatGpt; decisione che ha portato alla sospensione temporanea dell’attività in Italia e ad una interlocuzione con OpenAI sui temi del trattamento dei dati personali.
Per riuscire, se non a evitare il problema di un possibile riverbero degli stereotipi di genere nella realtà virtuale ma a renderlo almeno “governabile”, le direzioni cui guardare sono almeno tre. La prima è legata a chi realizza e alimenta gli algoritmi. La seconda alla loro trasparenza. La terza infine alle eventuali regole.
Sul primo versante, il punto di partenza noto è la scarsa presenza femminile nel mondo della Ict. “L’algoritmo lo scrive una persona o un pool. E se nella maggior parte dei casi sono uomini e non donne a scriverli, l’algoritmo è più azzurro e meno rosa”. Dunque è necessario aumentare la presenza delle donne a partire dalla educazione e formazione, dallo studio delle materie Stem. Accanto a questo, Scorza, lancia una idea: “Io – premette – non sono innamorato delle quote rosa ma in questo campo il loro utilizzo potrebbe essere più sensato di quello generico nei Cda delle aziende. Siccome ci stiamo tutti interrogando sulla eticità dei processi di elaborazione degli algoritmi, la circostanza che chi li produce debba garantire che in quei pool lavori una composizione eterogenea di donne, uomini, minoranze, potrebbe avere un senso”. Sulla linea del Digital market act che prevede norme specifiche per le società più grandi, “si potrebbe pensare a una regolamentazione per cui le società con un fatturato superiore ad una certa soglia e che operano nel settore AI debbano garantire che nei pool di sviluppo degli algoritmi ci sia una rappresentanza delle diverse componenti della società”.
Accanto a questo, c’è l’aspetto dell’alimentazione dell’algoritmo: “La sua forza è l’addestramento a cui viene sottoposto: a quanti e quali dati viene addestrato. Questi dati provengono da Internet e lì dentro il bias di genere c’è. E’ un aspetto un po’ più complicato ed ha un costo ma se si conviene sulla circostanza che la quantità industriale di dati è contraddistinta da un certo bias ed è suscettibile di replicarlo nell’algoritmo, si potrebbe convenire che si deve fare qualcosa a monte”.
Per quanto riguarda la trasparenza, sapere quanto pesano i diversi parametri sulla base dei quali un algoritmo fornisce una risposta naturalmente può migliorare un approccio più consapevole da parte dell’utente. “Quindi – rileva Scorza – in termini teorici, la esplicabilità dell’algoritmo è un vaccino alla fiducia di massa. In linea teorica, perché – aggiunge – renderlo trasparente è enormemente più difficile, dato che è basato su milioni di parametri diversi e di dati. Inoltre, se già oggi non si legge il manuale di istruzione del proprio aspirapolvere, domani si leggerà quello di un ‘aspirapolvere intelligente’ che per decidere se e come operare valuta una infinità di fattori? Si può ragionare – aggiunge – sul garantire questa esplicabilità verso corpi intermedi come le Autorità di vigilanza e i centri di ricerca accademici”.
C’è, infine, il tema della regolamentazione: la Ue sta lavorando a una proposta di regolamento sulla Intelligenza Artificiale (lo AI Act) che per Scorza rappresenta “il meglio che si può fare in una dimensione politica alta. La Ue detta le regole per cui la AI che circola in Europa sia ‘umanocentrica’. Da questo punto di vista è difficile non condividere questo approccio, l’alternativa è rimettersi alla fiducia nel mercato. C’è però un tema: la bozza di regolamento che oggi stiamo discutendo a Bruxelles è stata concepita un anno e mezzo fa, quando ancora nessuno aveva giocato con Chat. Se le istituzioni europee corrono, il testo sarà approvato entro il prossimo anno e c’è la clausola che tutto il regolamento sarà direttamente applicabile tre anni dopo il varo. Stiamo realisticamente parlando di un regolamento che dispiegherà tutta la sua forza nel 2026-2027 e il mercato non attende il legislatore. La AI si sarà trasformata in una miriade di servizi entrati nel nostro quotidiano in assenza di regole. Insomma, il regolamento rischia di arrivare tardi”.
***