L’Ai amplia le discriminazioni? No, se l’etica viene messa al primo posto

La macchina discrimina? L’Intelligenza artificiale aumenterà il gender gap e le discriminazioni già in atto o sarà possibile rendere il mondo più inclusivo grazie alle nuove tecnologie? Sono domande a cui i tecnici, i giuristi, le industry e i legislatori stanno provando a rispondere sempre più in un momento in cui l’Ai ha mostrato uno sviluppo inaspettato perfino per gli sviluppatori di software mentre il contesto normativo è ancora in divenire. Lucia Maggi e Nicole Monte, due avvocate partner di 42 Law Firm, fanno il punto sui rischi che si corrono. Facendo appello al senso di responsabilità delle big farm e di ciascuno di noi al fine di mettere l’etica sempre al primo posto.

Le macchine discriminano perché attingono a dati del passato

Oggi si parla tanto di AI e c’è stato un vero e proprio boom dell’intelligenza artificiale generativa, come ChatGpt, ma in realtà, ricordano le avvocate, l’intelligenza artificiale esiste dagli anni ’40 e si è sviluppata nel corso del tempo fino ad arrivare agli esempi di oggi.  La tecnologia, dice Nicole Monte, “attinge ai dati del passato e quindi alla domanda se le macchine discriminano la mia risposta è: non è la macchina che discrimina ma i dati a cui attinge che sono discriminatori, perché per secoli le persone si sono discriminate vicendevolmente”.

Contenere i bias e fare in modo che gli output non siano discriminatori è un correttivo  

Come arginare allora le discriminazioni e far sì che non si vada indietro nell’obiettivo di raggiungere l’inclusione e la parità di genere? “L’impegno dell’uomo  – spiega Lucia Maggi- è fortunatamente ancora indispensabile; utilizzo e interpretazione in modo etico dei software di intelligenza artificiale sono fondamentali. Un primo intervento per mettere un freno alle discriminazioni generate dai software consiste nell’individuare quali sono i problemi che generano gli errori, quelli che sono definiti come bias, ovvero le deviazioni dallo standard, dell’intelligenza artificiale. Cercare di contenere i bias e fare in modo che se ci sono non ci restituiscano un output discriminatorio  è uno dei compiti che dovrebbero avere oggi tutti i soggetti coinvolti nello sviluppo dell’Ai”.

 Il contesto normativo europeo va nella giusta direzione

Il quadro normativo europeo, sebbene ancora in divenire, aiuta. L’AI Act, la bozza di regolamento sull’intelligenza artificiale entrato in fase di Trilogue tra Parlamento, Consiglio e Commissione Ue ha tra i punti più rilevanti l’approccio risk-based adottato dal legislatore, che classifica delle applicazioni di questa tecnologia in alcuni ambiti o prodotti come “ad alto rischio”, introducendo nuovi obblighi e adempimenti per l’immissione sul mercato. Per le giuriste è una normativa “molto attenta sia nell’accesso sia nella conservazione dei dati”. L’Ai Act ha vietato l’uso dell’intelligenza artificiale su alcune specifiche categorie di attività umane, quelle che sono state considerate maggiormente pericolose. E il divieto, anche se non è specificato, è evidentemente legato anche al rischio di discriminazione delle persone”.

Guardando a quello che succede negli Usa, una legge dello Stato di New York già nel 2021 è intervenuta per evitare il rischio di discriminazione. “Era, infatti, stato introdotto un sistema di Ai – spiegano le legali – per la consultazione dei curricula, al fine di accorciare la fase della selezione del personale. Solo che si ci è accorti che le posizioni precedenti erano prevalentemente occupate da specifiche categorie (uomini, per esempio) e quindi l’Ai a sua volta avrebbe selezionato solo le stesse categorie.  E’ allora intervenuta una legge snella, molto focalizzata su questo tema che ha imposto un controllo umano sulla elaborazione svolta dall’Ai, senza arrivare a vietarne l’uso”.

Il rischio  per i cittadini italiani o europei di imbattersi in condizioni di servizio disciplinate sulla legge di Paesi meno attenti alla tutela dei diritti come Cina e Russia resta, ma in realtà è un rischio che c’era già e viene solo amplificato dall’abbattimento dei confini derivante dallo sviluppo delle nuove tecnologie. “Qualche tempo fa con Face App, ad esempio, era successo che le foto caricate per giocare e trasformare, ad esempio, l’immagine nella versione anziana di sé stessi finivano in un server in Russia dove non valgono le regole del Gdpr”.

Leggere bene le condizioni che si firmano, le big tech si impegnino mettendo l’etica al primo posto

La tecnologia – aggiunge Lucia Maggi – è un acceleratore in senso positivo, ma contestualmente è più veloce anche la possibilità di imbattersi in situazioni potenzialmente pericolose, ad esempio interagendo con Paesi che sono meno rispettosi dei diritti dei consumatori sotto il profilo della data protection. Oggi il rischio, che esisteva anche prima, è amplificato dalla velocità con la quale si evolve la tecnologia”. In conclusione, afferma Nicole Monte, “la regola generale è quella di  sviluppare in maniera etica l’Ai, anche i programmatori sentono molto questo problema come loro responsabilità. L’etica deve essere messa al primo posto sia da ciascuno di noi sia dalle big farm. La macchina è una macchina,  viene programmata per generare un quantitativo infinito di storie – banalizzando chat GPT-, andrà avanti senza comprendere le sfumature. Ci vuole, quindi, un controllo, soprattutto quando viene sviluppata: è necessario un approccio etico by design”.

***
La newsletter di Alley Oop
Ogni venerdì mattina Alley Oop arriva nella tua casella mail con le novità, le storie e le notizie della settimana. Per iscrivervi cliccate qui.
Per scrivere alla redazione di Alley Oop l’indirizzo mail è alleyoop@ilsole24ore.com