Pubblica amministrazione, l’intelligenza artificiale cambia il linguaggio

Rivoluzione parità nella pubblica amministrazione. Da oggi in poi, tutti i documenti di università, regioni e comuni potranno esprimersi senza stereotipi. Tutto questo sarà possibile grazie ad un algoritmo “Inclusively”, elaborato da tre università italiane: il Politecnico di Torino, l’università di Bologna e l’università di Tor Vergata all’interno del progetto E-mimic – Empowering multilingual inclusive communication, finanziato dal Miur.

Si può, attraverso un algoritmo, “educare” all’inclusione?

La risposta arriva dall’AI che, attraverso la tecnologia messa a punto dalle tre università, vuole eliminare i messaggi ritenuti non inclusivi e stereotipati. E lo fa, in primis, partendo da testi di matrice amministrativa, rappresentando la prima porta di accesso della persona agli svariati servizi sociali, culturali ed economici di necessità.
Inclusively, il nome del software alimentato dall’algoritmo, è stato presentato in occasione dell’evento “Donne e Ai, un progetto per eliminare i pregiudizi contro le donne“, dal team di ricerca e da Fulvia Alstolfi, alla guida dell’Ewmd – l’European women management development, che hanno stimolato un dibattito più profondo sul potere delle parole e il ruolo che un algoritmo di questo tipo può avere nella comunicazione.

I tranelli e le opportunità del linguaggio

L’uso delle parole crea la percezione del mondo circostante. Ogni persona contribuisce a disegnare la quotidianità e ciò influisce nel modo di pensare, parlare ed agire, nostro e altrui.
In questo quadro, fortemente accelerato dall’uso della tecnologia e dei social media, appare ancora più importante il ruolo del linguaggio.
L’ingente rilevazione, evidenziata dall’algoritmo, di messaggi non inclusivi o stereotipati nei testi analizzati, conferma la necessità di lavorare in tal senso e offre l’opportunità di una riflessione più ampia sull’uso delle parole nel quotidiano.

Correggere la pubblica amministrazione

Il progetto può contare sulle competenze di linguistica e di informatica. Se con la prima ci si occupa di individuare e comprendere quali meccanismi siano sottesi alla costruzione di stereotipi linguistici e routine comunicative, con la seconda si riconoscere e modifica le frasi non inclusive che prolificano nei testi, ci spiega Stefania Cavagnoli, ordinaria di linguistica applicata e glottodidattica all’università di Tor Vergata di Roma e vicecoordinatrice Centro di ricerca grammatica e sessismo. Questa fase, indispensabile per avviare il processo, serve a riconoscere e modificare le frasi non inclusive che prolificano nei testi e permette di continuare il lavoro ai data scientist, che hanno il compito di trasformare queste informazioni in regole per addestrare l’algoritmo, così che esso possa applicarle in modo automatico ad una più grande mole di casi e documenti.

Questo lavoro di squadra ha permesso di mettere a punto un software, alimentato da tale algoritmo, che compone in modo automatico testi inclusivi e corregge forme inappropriate di testo. Il passaggio dall’algoritmo al software è stato necessario, dato lo scopo di rendere fruibile tale tecnologia ad un pubblico quanto più vasto possibile e non renderlo esclusivo appannaggio degli addetti ai lavori.

Ma qual è un esempio di uso di questo algoritmo? Lo abbiamo chiesto a Tania Cerquitelli, dipartimento di automatica e informatica del politecnico di Torino, nonché responsabile scientifico del progetto E-mimic.

“Consideriamo ad esempio un utente responsabile della composizione di documenti formali. Esso può contare già su una bozza iniziale del documento rivista e revisionata automaticamente da Inclusively. Nello specifico, lo strumento fornisce agli utenti finali un’interfaccia di assistenza alla scrittura che scansiona i documenti per identificare i frammenti di testo che mancano di inclusività. Successivamente, sfrutta la modellazione generativa per riformulare queste porzioni di testo in un modo che sia neutro rispetto al genere e ai criteri inclusivi definiti.”

Le diverse “facce” di Inclusively

Il software per essere quanto più inclusivo possibile anche nel suo uso, mette a disposizione diversi livelli di accesso in base all’expertise posseduta. La prima interfaccia è di semplice uso anche e soprattutto di chi non è addetto ai lavori, che possono inserire testi ed avere da Inclusively il suggerimento dei passaggi su cui è necessario intervenire e uno spettro di alternative più rispettose.

Una seconda interfaccia di valutazione e annotazione, ad accesso di linguisti e utenti esperti, permette di inserire manualmente categorizzazioni aggiuntive per un ulteriore perfezionamento del sistema, secondo la metodologia human-in-the-analytics loop, ovvero una modalità che prevede l’interazione e la collaborazione tra macchina e uomo, senza lasciare all’algoritmo la totale autonomia di classificazione senza supervisione umana.

Infine, per supportare il lavoro dei data scientist nella progettazione di algoritmi, il software include una terza interfaccia, considerata di ispezione, che fornisce spiegazioni sui risultati dei modelli e informazioni utili per comprendere le decisioni prese dagli algoritmi, permettendo quindi di intervenire su di essi.

Gli impatti: nuove professionalità?

Gli impatti di questa tecnologia non sono solo sociali, motivo per cui nasce, e scientifici, rappresentando un modello adattabile a contesti e lingue diverse che altri studiosi possono usare e riadattare ad esigenze differenti, ma si estendono anche a nuove prospettive economiche e formative.

“L’uso dello strumento consentirà alle persone di comprendere eventuali errori nella comunicazione e di correggerli con facilità, migliorando le capacità comunicative – ci spiega Tania Cerquitelli. “Inoltre, le competenze acquisite durante lo studio, la progettazione, il testing e l’uso di Inclusively, contribuirà alla definizione di nuovi profili professionali multi e trans-disciplinari che potranno svolgere un ruolo essenziale e strategico nella società. Riteniamo che sarà possibile progettare nuovi corsi accademici per programmi trans-disciplinari di istruzione universitaria per formare la popolazione studentesca all’uso efficace della comunicazione inclusiva attraverso metodi innovativi di deep learning per l’elaborazione del linguaggio naturale.”

Quali i prossimi step?

Alla base di tutti i progetti di AI c’è una fase di testing, che può durare anche diversi mesi, in cui viene “stressato” l’algoritmo per verificarne il grado di attendibilità e portare i risultati ad un livello di qualità sempre maggiore.
Ma il team di lavoro, durante questa fase, già guarda ai possibili sviluppi futuri, che in questo progetto, riguardano l’estensione dell’algoritmo ad altre lingue e contesti differenti di applicazione, nonché la diffusione gratuita del software a chiunque volesse utilizzarlo. In aggiunta, ci spiegano gli esperti, in una fase più evoluta, l’applicativo potrà essere in grado di adattarsi alle caratteristiche della persona che lo utilizza: identità di genere al di là del binarismo, età, disturbi di apprendimento (per esempio, con un font ad alta leggibilità), appartenenza etnica.

Un’intelligenza artificiale etica è possibile

Conversando con i referenti del team di lavoro, emerge la forte convinzione che un’intelligenza artificiale etica sia possibile e che gli algoritmi di AI possano davvero rispettare i principi di riservatezza (privacy), trasparenza, equità (fairness) e responsabilità (accountability).

“Le persone accolgono e si fidano delle tecnologie di AI quando hanno informazioni sufficienti sulla fase di apprendimento, sviluppo e validazione.” aggiunge Tania Cerquitelli.

Condividere le regole e i presupposti alla base del funzionamento di un algoritmo o più in generale di una tecnologia, permette a chi usufruisce del servizio, di non subìre l’intelligenza artificiale, spesso temuta, ma piuttosto di conoscerla e comprenderla nelle sue dinamiche.
Una maggiore consapevolezza e informazione, sono alla base della fiducia nella tecnologia e del corretto uso che possiamo farne, soprattutto in campi che toccano temi delicati e allo stesso tempo pervasivi, come il linguaggio e i bias che esso può portare.

L’Ewmd, chapter di Roma, si è già occupata negli anni passati di pregiudizi di genere collegati ad un uso non corretto delle parole e del linguaggio.” Ci spiega la presidente Astolfi. “Per il 2024 abbiamo deciso di occuparci di intelligenza artificiale, e anche in questo ambito abbiamo pensato essere importante e decisivo capire come essa possa aiutare al superamento di quei bias. La ricerca che abbiamo presentato coniuga le due aree, e affronta il tema del linguaggio dei provvedimenti amministrativi.”

***

La newsletter di Alley Oop

Ogni venerdì mattina Alley Oop arriva nella tua casella mail con le novità, le storie e le notizie della settimana. Per iscrivervi cliccate qui.

Per scrivere alla redazione di Alley Oop l’indirizzo mail è alleyoop@ilsole24ore.com