Revenge porn, i social e gli strumenti per difendersi

wladislaw-peljuchno-y_f1ahpr1tc-unsplash

Se ne è parlato di recente, per il caso Grillo e un video circolato sulle chat, o nella storia della maestra di Torino, che perse il lavoro dopo la diffusione a sua insaputa di video e immagini intime. Al di là dei casi che hanno avuto maggiore eco mediatica, per la notorietà dei personaggi coinvolti o per l’assurdità della situazione, i numeri ci dicono che la diffusione non consensuale di immagini e video intimi è un fenomeno pervasivo, che richiede attenzione e interventi da differenti angolazioni. In primo luogo parliamo di un reato, introdotto dal Codice rosso nel 2019 e noto come “Revenge porn”. La definizione, però, rimanda a un atto vendicativo, ma la diffusione di immagini sessualmente esplicite senza il consenso della persona interessata può avvenire per i più disparati motivi e non necessariamente per vendetta: quali che siano le ragioni, in assenza di consenso parliamo di un reato.

Il fenomeno è diventato per il legislatore un’emergenza dopo il susseguirsi di conseguenze drammatiche che hanno coinvolto le vittime, a partire dal caso di Tiziana Cantone, la ragazza napoletana che si uccise nel 2016 a causa della circolazione dei suoi filmati in rete. Da lì, quindi, l’esigenza di un intervento legislativo, ma anche di una maggiore consapevolezza attraverso la formazione nelle scuole per ragazzi e ragazze a un utilizzo più consapevole dei social, delle chat e delle proprie e altrui immagini. Ma il fenomeno non riguarda solo i minori: nel rapporto pubblicato a un anno dall’approvazione del Codice Rosso, che ha appunto introdotto il reato di revenge porn, i dati mostrano che l’82% delle vittime è di genere femminile e di queste l’83% è maggiorenne.

Garante Privacy e Facebook: un canale di emergenza per le vittime potenziali
Uno dei fronti caldi per la lotta al revenge porn è quello che vede la collaborazione delle piattaforme social o di chat, attraverso cui più spesso passano questi messaggi. Già da diversi anni è possibile rimuovere contenuti da Internet, ma di recente, il Garante della Privacy ha presentato in collaborazione con Facebook un vademecum e un portale un canale di emergenza per le vittime potenziali, per prevenire quindi la pubblicazione di contenuti online. “Abbiamo ideato questo programma pilota sulle immagini intime non consensuali (Ncii) per aiutare tutte le persone che temono che immagini o video intimi che li vedono ritratti possano essere condivisi su Facebook o Instagram senza il loro consenso“, spiega ad Alley Oop Laura Bononcini, responsabile dei rapporti istituzionali e degli affari regolamentari di Facebook per il Sud Europa. Il progetto, nato un anno fa come esperimento in collaborazione con l’associazione no-profit PermessoNegato, da marzo 2021 vede la partecipazione anche del Garante per la Protezione dei Dati Personali.

Come funziona? “Attraverso questi canali – spiega Bononcini – le persono possono contattare Facebook fornendo alcune informazioni di base, come nome e link al proprio profilo social, e un indirizzo e-mail sicuro. A quell’indirizzo, inviamo un link monouso dove poter caricare i contenuti. Di norma le richieste vengono elaborate entro 48 ore. Se le immagini o i video della persona soddisfano i criteri, il nostro team attiva un’apposita tecnologia in grado di rintracciare eventuali corrispondenze con questi video/foto ed evitare così condivisioni sia su Facebook che su Instagram“. In sostanza, i contenuti vengono presi e codificati creando una “firma digitale unica” o “hash” (composta da valori numerici), una volta creata, la firma può essere confrontata con quelle di altri video e immagini per trovare le corrispondenze ed eliminarle. Il sistema di controllo agisce anche retroattivamente. Facebook, già dal 2019, ha realizzato “Non senza il mio consenso”, un hub online di supporto sviluppato insieme a esperti del settore, all’interno del Centro per la sicurezza, che fornisce risorse e contatti di organizzazioni in grado di sostenere le vittime e indicazioni dettagliate sulle misure che si possono adottare per rimuovere questo tipo di contenuti dalle piattaforme di Facebook ed evitare che vengano ulteriormente condivisi.

La rimozione dei contenuti, possibile ma non sempre facile
Matteo Flora
è presidente di Permesso negato, no-profit che fornisce assistenza tecnologica e legale alle vittime di pornografia non consensuale. Funziona davvero la rimozione di immagini già pubblicate? “Nelle piattaforme più diffuse la rimozione è a volte ostica, ma possibile nella quasi totalità dei casi, mentre differente è il problema delle piccole piattaforme di forum e di Telegram: in questi due casi le piattaforme sono apertamente restie a rimuovere contenuti e spesso conniventi volontarie al perdurare della messa in pericolo e del danneggiamento della vittima”. Per rimuovere dai social un’immagine pubblicata senza il consenso della persona ritratta, i tempi necessari sono “mediamente 72 ore lavorative per le piattaforme allineate, con spesso tempi inferiorei alle 24 ore, se parliamo del singolo indirizzo recuperato dalla vittima – dice Flora – Per le piattaforme restie come alcuni Forum e Telegram vi sono immagini ancora online dopo oltre un anno dalla pubblicazione. Diverso è invece il il problema del ricaricamento dei medesimi contenuti anche post cancellazione: “In questo caso solo Facebook al momento da a disposizione un sistema per evitare il ricaricamento, mentre nelle altre piattaforme la battaglia di rinvenimento ed eliminazione costante può andare avanti mesi, con alcune vittime per cui abbiamo rimosso centinaia e centinaia di volte lo stesso contenuto”, dice Flora.

Il caso Telegram
Sicuramente la piattaforma di messaggistica russa Telegram è tra le meno propense a intervenire contro il revenge porn. Un’inchiesta di Wired dell’aprile 2020 ha denunciato una chat dove oltre 40mila persone ogni giorno scambiavano foto delle ex, di minori, immagini pedopornigrafiche, richieste di rovinare la vita, in quello che è stato definito un vero e proprio “rito collettivo dello stupro virtuale di gruppo”. Su Alley Oop Laura Boldrini, in seguito a quell’inchiesta, chiedeva una legge che punisse le piattaforme, oltre che sostenere le vittime. Nel periodo della pandemia, Matteo Flora dice che c’è stata l’esplosione del fenomeno del revenge porn: “In via non esaustiva, i dati dei Gruppi Telegram dedicati al fenomeno hanno subito questa tendenza: a febbraio 2020 si contavano 17 gruppi/canali per un totale di 1.147.000 utenti non univoci, a maggio 2020 erano 29 i gruppi/canali per un totale di 2.223.336 utenti non univoci. A novembre 2020 siamo a 89 gruppi/canali per un totale di 6.013.688 utenti non univoci”. Insieme ai video di pornografia non-consensuale si muovono, inoltre, contenuti di minor pornography e child pornography (in misura minore).

I casi trattati da Permesso negato nell’ultimo anno
Nelle centinaia di casi gestiti nel corso dell’ultimo anno da Permesso negato, la maggioranza (96%) riguarda la pornografia non-consensuale, con un 20% di sextortion (con la richiesta di riscatto dopo le video chiamate a sfondo erotico), un 50% di condivisione illecita di materiale sessuale, un 9% di pedopornografia ed un 18% di violazioni Privacy, seguiti da casi di account rubati, accessi abusivi e altro.  Nei casi di pornografia non-consensuale il 75% di vittime è di genere femminile, mentre per i casi di estorsione la percentuale si inverte. “In generale abbiamo una rappresentazione di genere delle vittime (totale) del 60% donne e 40% uomini, certamente sbilanciata ma che mostra come il fenomeno della pornografia non consensuale non sia strettamente parlando un problema del solo genere femminile“, dice Flora. “Abbiamo anche una sostanziosa presenza di vittime del mondo LGBTQA+, che è sicuramente sottostimata perché non richiediamo in alcun modo l’orientamento sessuale“, aggiunge.

Gli strumenti per i minori
La piattaforma realizzata da Facebook con il Garante per la Privacy è dedicata agli utenti maggiorenni: nel caso dei minori infatti la condivisione di immagini intime è considerata pedopornografia e, in quanto tale, segue una specifica regolamentazione. “Non permettiamo in alcun modo la condivisione di questo tipo di contenuti sulle nostre piattaforme – sottolinea Laura Bononcini di Facebook – e non appena ne veniamo a conoscenza, contattiamo il National center for missing and exploited children (NCMEC), che si attività con le autorità locali“. Inoltre, prosegue Bononcini, “lo scorso giugno abbiamo aderito a ProjectProtect, una coalizione tecnologica che riunisce aziende come Google, Microsoft e 15 altre realtà tecnologiche impegnate nel combattere le sfruttamento minorile”.

Facebook poi procede in automatico, senza bisogno di segnalazione, alla rimozione delle immagini e dei contenuti che non rispettano gli Standard etici del gruppo: nel quarto trimestre del 2020 sono stati rimossi 5,4 milioni di contenuti contrari alle norme di sfruttamento sessuale, abusi e nudo di minori da Facebook (800mila da Instagram) e nel 98,8% dei casi prima che venissero segnalati (97.9% dei casi per quanto riguarda Instagram). “Stimiamo che su Facebook questo tipo di contenuti rappresentino lo 0.05% del totale, questo significa che ogni 10 mila contenuti visti dagli utenti solo 5 violano le nostre norme di sfruttamento sessuale, abusi e nudo di minori“, dice Bononcini. Anche in Italia, poi Facebook sta portando avanti  Get Digital, un progetto nato per educare e sensibilizzare a un uso responsabile della rete, grazie a strumenti educativi ideati da istruzioni come le Università di Harvard e Yale e organizzazioni come l’Unesco.  “In Italia – conclude Bononcini – collaboriamo attivamente alle attività di formazione grazie alla collaborare con Fondazione Carolina Onlus, la cui missione è proprio realizzare un futuro in cui la Rete possa essere un luogo sicuro sia per i bambini che per gli adolescenti“.

***

La newsletter di Alley Oop

Ogni venerdì mattina Alley Oop arriva nella tua casella mail con le novità, le storie e le notizie della settimana. Per iscrivervi cliccate qui.

 

  • gloria |

    Bene il progetto Get Digital e quanto opportunamente fatto sinora per proteggere soprattutto minori e adolescenti. Ma come ben detto oltre a salvaguardare le vittime , e non scordiamoci degli adulti che saranno vite spezzate.bisogna , bisogna colpire anche le piattaforme .Senza ombra di dubbio è poi l’essenzialità di una educazione al digitale nei giovani

  Post Precedente
Post Successivo