
C’è un dato che, più di tutti, può destare sorpresa nella nona edizione della Mappa dell’Intolleranza presentata da Vox Diritti – Osservatorio Italiano sui Diritti: il 39% dei contenuti misogini online è prodotto da account femminili. Nello specifico, nella geografia dell’odio, il 61% degli autori identificabili sono uomini e il 39% donne. Nella categoria misoginia la quota femminile sale al 43%. Tuttavia, guardare ai numeri senza considerare il contesto, significa guardare al “dito”, i commenti misogini delle donne, mentre si indica la “luna”: la cultura patriarcale in cui le donne vivono e di cui questi commenti sono il prodotto.
Lo spiega ad Alley Oop Marilisa D’Amico, ordinaria di diritto costituzionale e pubblico dell’Università degli Studi di Milano, co- fondatrice di Vox Diritti: «Dobbiamo registrare che l’odio e i contenuti negativi rivolti alle donne restano costanti: sono sempre al primo posto in tutte le rilevazioni – spiega D’Amico – Durante il Covid, ad esempio, avevamo osservato un fenomeno interessante: le donne non erano più prese di mira solo per l’aspetto fisico, ma anche per la loro posizione lavorativa. Il mondo online, come spesso accade, rifletteva la realtà: eravamo tutte chiuse in casa, connesse, ed esprimevamo le nostre posizioni professionali, diventando per questo bersaglio». Quello che si legge online, dunque, non è altro che lo specchio di quello che accade offline: «Quando la realtà è intrisa di stereotipi e si caratterizza per un linguaggio violento, lo stesso avviene online. Anche gli algoritmi acquisiscono questi stereotipi e ce li restituiscono con i bias di cui sono intrisi: i pregiudizi algoritmici».
La normalizzazione dell’odio
La ricerca – realizzata in collaborazione con l’Università degli studi di Milano e il suo centro per i diritti umani Human Hall, con il contributo dell’agenzia The Fool – analizza 2 milioni di contenuti raccolti nel periodo gennaio–novembre 2025, il 56% dei quali classificati come negativi. Un dato stabile rispetto al 57% dell’anno precedente: l’odio online non è un fenomeno passeggero, è una struttura del discorso digitale italiano. Rispetto alle edizioni precedenti, dalla Mappa n.9 emerge con chiarezza che l’odio online non si diffonde spontaneamente, ma segue pattern ricorrenti che indicano la presenza di reti strutturate – vere e proprie centrali di amplificazione – capaci di moltiplicarne la portata su scala sproporzionata.
Un aspetto che porta alla normalizzazione dell’odio: «L’odio è, purtroppo, una costante – sottolinea D’Amico – Ciò che abbiamo osservato quest’anno è una crescente normalizzazione dei contenuti negativi: nella nostra mappatura distinguiamo tra hate speech e stereotipi. Un dato interessante è che espressioni molto negative vengono sempre più percepite come quasi normali». Questo non significa che ci sia meno odio nei confronti delle donne ma, come evidenzia Silvia Brena, giornalista e co- fondatrice di VoxDiritti, «si è fatto più pervasivo perché si è normalizzato: come a dire che gli stereotipi misogini, venandosi anche delle sfumature perverse del linguaggio dell’abuso, si sono sedimentati, costruendo un lessico accettato e di uso comune. Il che rende l’odio misogino più difficile da registrate e quindi da combattere. Si tratta di un fenomeno così pervasivo che, come registra la Mappa n.9, appartiene oggi alle stesse donne».
Le più colpite: il 37% dei contenuti negativi riguarda le donne
La misoginia non arretra, cambia forma. Le donne restano la categoria più colpita, con il 37% dei contenuti negativi. Un dato che potrebbe sembrare un miglioramento rispetto al 50% del 2024, ma che l’analisi qualitativa smentisce. Il discorso misogino non è diminuito: si è normalizzato. Gli insulti sessisti hanno perso il loro significato originario e sono diventati parte del linguaggio offensivo comune, applicati a chiunque e in qualsiasi contesto. Lo stereotipo si è talmente radicato da risultare quasi invisibile. Ed è proprio questa invisibilità a renderlo più pervasivo e più difficile da contrastare. A confermare la diffusione capillare del pregiudizio c’è un dato inedito: la quota più alta di auto‑oggettivazione tra tutte le categorie monitorate, un meccanismo che porta le donne a interiorizzare e riprodurre lo stesso sguardo svalutante che le colpisce.
«La democrazia paritaria è ancora irrealizzata»
La presenza di contenuti ostili prodotti da donne contro altre donne è un fenomeno che la ricerca ha rilevato con maggiore attenzione quest’anno, pur essendo tutt’altro che nuovo. Sono meno a produrre odio, ma quando lo fanno raggiungono più persone: i contenuti ostili prodotti dalle donne generano in media 7,04 interazioni, contro le 6,11 degli account maschili. Una capacità di circolazione superiore del 15%. Come spiega Marilisa D’Amico, «Non c’è una differenza di genere nel modo in cui si manifestano ostilità e isolamento: è sempre stato così». L’idea che tra donne esista automaticamente una solidarietà spontanea, oltre a ricalcare un altro stereotipo, non trova riscontro nei dati e ha conseguenze concrete: «Se così fosse – osserva D’Amico – avremmo un consolidamento delle conquiste e un minore isolamento delle donne, che spesso è alla base anche della violenza di genere».
Il quadro che emerge mostra come i meccanismi di esclusione, svalutazione e mobbing non seguano una linea di demarcazione netta tra uomini e donne: chi li agisce riflette la cultura in cui è immerso. Ed è proprio da questa prospettiva che si apre la lettura costituzionale del fenomeno. «Dal punto di vista costituzionale – afferma D’Amico – questo indica quanto sia difficile realizzare una vera parità: la democrazia paritaria immaginata dalla Costituzione, fatta di uomini e donne, è ancora lontana». A pesare, continua la costituzionalista, «è la persistenza di un’impostazione sociale patriarcale che non risparmia nessuno: le donne non sono immuni dal patriarcato e spesso sono loro le prime a isolare altre donne o a mettere in dubbio chi subisce violenza». Il riferimento è anche al modo in cui la violenza maschile contro le donne viene raccontata nello spazio pubblico: «Sono talvolta proprio le donne a descrivere le vittime attraverso ciò che indossavano o le loro abitudini di vita», riproducendo gli stessi schemi che alimentano la discriminazione. Per questo, conclude D’Amico, è necessario decostruire l’aspettativa secondo cui le donne dovrebbero essere sempre più docili o più solidali: «Anche le donne sono lo specchio della società in cui viviamo».
La regia dell’odio e la grammatica della deumanizzazione
Il discorso d’odio online non è spontaneo: ha una regia. Comprenderla è la prossima frontiera della ricerca. La deumanizzazione, in particolare, si conferma la grammatica più potente dell’ostilità digitale. Su 26.844 tweet analizzati, è presente in oltre un terzo dei contenuti: non un fenomeno marginale, ma una componente strutturale del linguaggio ostile. Ogni categoria ha la sua sintassi specifica. L’abilismo registra l’incidenza più alta (80,7%), dominato dalla biologizzazione (76,4%): termini come “cerebroleso”, “mongoloide”, “handicappato” non descrivono più persone reali, ma diventano insulti generici rivolti a chiunque sia percepito come deviante dalla norma. La xenofobia si attesta al 52,5%, con l’animalizzazione che raggiunge il 71% delle occorrenze.
Nell’islamofobia emerge un meccanismo inedito: l’accusa di disumanizzare l’altro diventa il presupposto retorico per disumanizzarlo a propria volta. «Destituire le persone del loro status attraverso parole che annientano l’essenza umana riporta a un passato forse ancora troppo vicino – afferma D’Amico – Attraverso la propaganda fascista e nazista, attraverso una comunicazione “animalesca” e “reificante” si è riusciti a diffondere un’idea molto chiara: alcuni individui non sono tali, ma appartengono ad altre “specie”. Il linguaggio, lo ribadisco, è più del sangue: un linguaggio che vuole negare l’individuo si insinua tra le pieghe non solo del web, ma della società tutta, mettendo a rischio le fondamenta – culturali, sociali e politiche – della nostra democrazia».
Mappare gli stereotipi, i pregiudizi algoritmici arrivano dalla realtà
In questo scenario, la ricerca si sta spostando sempre più verso la comprensione degli stereotipi che alimentano l’odio. Come spiega D’Amico, «ci stiamo concentrando anche sugli stereotipi, grazie al lavoro con gli informatici dell’Università di Bari e dell’Università statale di Milano». Un impegno reso possibile anche dal nuovo centro Human Hall che, sottolinea D’Amico, «è uno spin‑off dedicato all’intelligenza artificiale. Lavoriamo su discriminazione algoritmica, su come l’algoritmo discrimina, su perché l’Ia è riservata più agli uomini che alle donne».
Il nodo centrale è comprendere come gli algoritmi assorbano e riproducano i bias presenti nella società. «Perché abbiamo algoritmi intrisi di pregiudizi? Perché la nostra realtà è ricca di stereotipi», osserva D’Amico. Da qui la necessità di distinguere tra linguaggio d’odio e linguaggio stereotipato. Il primo può avere conseguenze immediate e violente; il secondo crea il clima culturale che rende possibile l’escalation: «Lo stereotipo non è ancora azione violenta, ma prepara il terreno perché l’odio si sviluppi, anche nella violenza di genere». Il lavoro di quest’anno ha aggiunto un ulteriore tassello: la profilazione degli autori. «Ci siamo chiesti: chi è l’odiatore? Chi è l’odiatrice?», racconta D’Amico: «Non c’è solo l’uomo dietro la tastiera: ci sono anche le donne e su questo non siamo differenti». Una constatazione che conferma quanto la cultura dell’odio sia trasversale e quanto la sua comprensione richieda strumenti sempre più sofisticati.
Intelligenza artificiale, perché diventa un tema democratico
Il lavoro che accompagna la Mappa dell’Intolleranza nasce come un progetto sociale, indipendente, senza scopo di lucro. «Facciamo ricerca per la collettività, non per interessi economici – evidenzia D’Amico – Il nostro obiettivo è capire come l’intelligenza artificiale influenzi la democrazia e come la democrazia, a sua volta, influenzi l’intelligenza artificiale». Il nodo, spiega, è la struttura del potere che governa le tecnologie: «Se il potere che gestisce queste tecnologie è un potere machista, vediamo cosa sta succedendo: quasi l’80% dei programmatori sono uomini, esposti ai pregiudizi». Il risultato è un doppio livello di distorsione: «L’uomo crea l’algoritmo e il dato è pieno di pregiudizi contro le donne. Un mix infernale».
Una volta online, il pregiudizio non resta confinato: diventa virale. «La singola offesa può raggiungere una persona, dieci, cento. Ma la viralità dell’online è incommensurabile rispetto al mondo reale». Una precisazione che ribadisce la natura pubblica e responsabile del progetto: «Il nostro lavoro non è commerciale: è un lavoro sociale, fatto per capire e per prevenire».
***
La newsletter di Alley Oop
Ogni venerdì mattina Alley Oop arriva nella tua casella mail con le novità, le storie e le notizie della settimana. Per iscrivervi cliccate qui.
Per scrivere alla redazione di Alley Oop l’indirizzo mail è alleyoop@ilsole24ore.com