Sei un ragazzo? Vedrai comparire sulla tua bacheca Facebook annunci di lavoro per la consegna di pizza a domicilio, mentre sei sei una ragazza è più facile che ti venga proposto un lavoro di consegna di spesa a domicilio. L’intelligenza artificiale proprio come gli umani che la programmano ha degli stereotipi di genere (e non solo), che si riflettono sulle modalità del suo funzionamento.
Un recente studio condotto da ricercatori indipendenti della University of Southern California (USC) ha confermato che l’algoritmo di Facebook discrimina sulla base del genere il tipo di annunci di lavoro che presenta in bacheca, a parità di qualifiche richieste e senza nessuna indicazione di questo tipo da parte del datore di lavoro. Visto che la legge federale statunitense vieta questo tipo di discriminazioni, Facebook già da diversi anni ha dichiarato che sta lavorando per eliminare questo bias ma, a quanto pare, con scarsi risultati.
Nel dettaglio, come racconta un articolo sulla MIT Technology Review, i ricercatori si sono registrati su Facebook per inserire degli annunci e hanno pubblicato (a pagamento) annunci di lavoro per due tipi di delivery, per esempio uno per Domino’s (pizza) e uno per Instacart (spesa). Attualmente c’è un maggior numero di uomini che lavora per Dominos’ e di donne che consegna per Instacart e così l’algoritmo ha presentato le offerte di lavoro in bacheca. Allo stesso modo, l’annuncio per un posto da ingegnere informatico per Nvidia raggiungeva un pubblico maschile mentre per Netflix il target era automaricamente femminile.
Nell’identificare il target di un annuncio infatti questa tecnologia considera anche la presenza relativa di donne e uomini in quel settore e in quell’azienda, creando “una piattaforma il cui l’ algoritmo – si legge nella ricerca – impara e perpetua le attuali differenze demografiche nel mondo del lavoro”
Questa ricerca è solo l’ultima di una serie di studi e analisi che nel tempo hanno messo sotto i riflettori il l’intelligenza poco “furba” della tecnologia di Menlo Park. La prima fu nel 2016 quella del sito di giornalismo investigativo americano ProPubbica che denunciò come la piattaforma consentisse di selezionare il target di annunci non solo di lavoro ma anche immobiliari sulla base di dati sensibili come etnia e genere. Una discriminazione proibita per legge, ma di fatto praticata per altri due anni, fino a quando per vie legali Facebook fu obbligata a ritirare questa possibilità.
Da allora diverse Università hanno analizzato il funzionamento e l’utilizzo dell’ Ai del gruppo fondato da Mark Zuckerberg, ora lo studio dell’Università della California del Sud conferma i risultati, denunciando che nonostante i buoni propositi di Facebook nulla è ancora cambiato.