Deepnude: i contenuti pornografici creati con l’AI sono fuori controllo?

Vi sarà sicuramente capitato di imbattervi in quelli che si chiamavano “fotomontaggi”, visi di personaggi famosi o politici manipolati per creare dei falsi. Oggi, grazie alle app che sfruttano l’intelligenza artificiale, chiunque può creare immagini manipolate in maniera illecita e l’ambito più popolato è la pornografia (inclusi soprattutto video). Dai deepfake, dove il contenuto viene riadattato a un altro contesto e manipolato tramite un sistema di AI, si è passati al deepnude, che letteralmente si riferisce a immagini o video di nudo e quindi fake porn

La produzione di questi contenuti si sta diffondendo soprattutto tra gli adolescenti, e può essere l’inizio di altri fenomeni come il sextorsion o il revenge porn, rispettivamente forme di ricatto e diffusione di materiale intimo non consensuale online. Proprio per questo, il deepnude è una forma di violenza digitale, ma sono ancora necessari ulteriori provvedimenti normativi per rispondere alle denunce. 

Lo scorso 9 dicembre è stato raggiunto un accordo sul regolamento europeo per l’intelligenza artificiale, confezionato con il nome di AI Act, che comprende provvedimenti relativamente a strumenti come ChatGpt o LaMDA. Un passo avanti nell’individuazione dei pericoli dell’AI e dei diritti digitali a tutela dell’individuo.

Dalla prima app Depp Nude agli ultimi casi registrati del 2023

Nell’ultimo anno il fake porn è esploso: utenti donne di Twitch, Youtube e Tik Tok si sono imbattute in video pornografici con la loro faccia, la cronaca ha raccolto gli episodi avvenuti in due scuole del New Jersey e del comune spagnolo di Badajoz lanciando l’allarme tra gli studenti, ad aprile è stato denunciato il caso di Roma quando dei minorenni hanno utilizzato l’app Bikinioff per “spogliare” le loro compagne di classe, e ancora l’ultimo caso più recente a Treviso registrato dalla Polizia Postale che coinvolge due ragazze adolescenti. 

Il 2023 è stato un anno estremamente capillare per il sextortion tra i minorenni. Nel mese di maggio, Save the Children ha pubblicato un articolo sul sextortion riportando i dati della Polizia Postale del 2022: 130 casi trattati di minorenni tra i 14 e 17 anni, inclusi maschi. Nell’agosto di quest’anno le segnalazioni sono state centinaia.

Perché lo chiamiamo deepnude oggi? Nel 2020 il Garante della privacy ha aperto un’istruttoria nei confronti di Telegram relativa a un Bot dell’app Deep Nude, che permetteva di caricare e manipolare immagini da condividere sulla piattaforma, e molte persone erano anche disposte a pagare per acquistarle. Prima del Bot per Telegram, l’applicazione Deep Nude era già in circolazione da circa un anno. Recentemente, il Washington Post ha riportato i dati dell’analista Geneviene Oh, secondo la quale i video pornografici deepfake caricati sui siti web host nel 2023 è maggiore del 54% rispetto al 2022. 

Il deepnude può essere considerato reato?

Il deepnude è un fenomeno che somiglia per certi versi al revenge porn, ma a livello giuridico non è un reato punibile per legge, almeno non direttamente. L’articolo 612 ter del Codice penale per il revenge porn, infatti, punisce sia la condotta del soggetto che diffonde il materiale sia di quello che lo condivide, offrendo una tutela quindi anche dal fenomeno della viralità. Non essendoci però una regola per quanto riguarda immagini create con intelligenza artificiale, non è nemmeno possibile applicare la legge per analogia (art. 1 Cp e 25 Cost.). In caso di denuncia, è possibile fare riferimento a ulteriori reati come la diffamazione o l’estorsione

Per quanto riguarda i minori invece, il Codice penale prevede un reato specifico di “pornografia virtuale” all’art. 600 quater.1. Per reato si intende pornografia minorile e detenzione di materiale pornografico (anche manipolato artificialmente).

Il deepnude può essere infatti anche motivo di vendetta, esattamente come il revenge porn. Ce lo racconta Federica Bertoni, informatica forense esperta di criminologia informatica e cybersecurity, che ad Alley Oop ha fornito alcuni approfondimenti sul tema: “Nel 2018, in occasione della presentazione del mio paper sui deepfake alla prima Conferenza dell’Islc (Information Society Law Center) dell’Università di Milano, parlai anche del deepfake avente come vittima protagonista la giornalista investigativa e attivista Rana Ayub. Rana si era unita alle proteste marciando contro quella parte di India che in quel momento stava difendendo i presunti autori di uno stupro avvenuto ai danni di una bimba di 8 anni. Le esternazioni della giornalista scatenarono un’ondata d’odio che culminò in un deepfake, in cui il suo viso era stato sostituito a quello della pornostar del filmato originale, al fine di colpirla e zittirla”.

In merito alle conseguenze del deepnude e alla difficoltà di un inquadramento giuridico aggiunge: Le ripercussioni che possono scaturire sono le medesime derivanti dagli attacchi di revenge porn, del cyberbullismo, del grooming e del sextortion e della pedopornografia, con l’aggravante che il problema si pone in una forma ancor più subdola rispetto ai fenomeni cui si ricollega e tipizzati dal legislatore, risultando impossibile da prevedere, da individuare e dunque arginare”.

AI Act: cosa prevede il nuovo accordo europeo per l’intelligenza artificiale?

Dal comunicato stampa del Council of the EU rilasciato in data 9 novembre, sappiamo che sono state concordate anche regole specifiche per i foundations models. Tradotto letteralmente, i modelli fondativi sono grande oggetto di discussione per quanto riguarda la tutela della privacy e i diritti digitali, proprio perché includono GPT-4 (alla base del potente chatbot ChatGpt) o LaMDA (il sistema dietro Google Bard). Questo è il punto che interesserebbe la manipolazione di immagini, e quindi la responsabilità che i sistemi di AI dovrebbero avere in termini di trasparenza, tutela e legalità. 

Si legge nel primo comunicato: L’accordo provvisorio prevede che i modelli di fondazione debbano soddisfare specifici obblighi di trasparenza prima di essere immessi sul mercato”. Per obblighi si intende la valutazione del modello, la valutazione e il monitoraggio dei rischi sistemici, la protezione della cybersecurity e la rendicontazione del consumo energetico del modello. L’AI Act non si applicherà ai modelli liberi e open source i cui parametri sono resi disponibili al pubblico, ad eccezione di ciò che riguarda per esempio l’implementazione di una politica per rispettare la legge sul copyright.

In sintesi, gli uffici preposti alla struttura dei nuovi parametri avranno dai prossimi sei mesi ai due anni per arginare i danni all’individuo dell’AI. Non è chiaro se ci sono possibilità per quanto riguarda l’autoregolamentazione e i codici di condotta di questi modelli, ma sul tavolo ci sono tutti gli strumenti, seguiranno gli sviluppi alla pubblicazione del testo definitivo.

Prima della discussione dell’AI Act, c’erano state ulteriori proposte? Con riferimento al divieto di utilizzo di strumenti di intelligenza artificiale che presentassero rischi ritenuti inaccettabili – dice Bertoni – nel 2021 la Commissione forniva un’indicazione ben precisa sul riconoscimento dei video deepfake, con un tentativo di responsabilizzazione dei creatori, i quali avrebbero dovuto dichiarare che il contenuto era stato generato o manipolato artificialmente. Tuttavia, quando questo suggerimento non è accolto, è tecnicamente bypassabile. L’AI Act, benché affronti in certa misura la questione fake news e deepfake, presenta una formulazione che non agevola ancora nella pratica la risoluzione efficiente ed efficace dei vari casi. La questione resta perciò aperta e in divenire”.

Capire il deepnude e le sue conseguenze: una formazione verticale

Chiunque può essere vittima di deepnude, ma senza formazione sul tema non è possibile fare chiarezza sulle varie forme di cyberviolenza, a oggi sottovalutate. Dopo il caso romano degli adolescenti che hanno utilizzato l’app Bikinioff per creare immagini di nudo delle loro compagne, il garante dell’Infanzia della Regione Lazio ha affermato di aver organizzato incontri formativi nelle scuole, nelle parrocchie e nei gruppi sportivi con il progetto “Genitori al centro, missione adolescenza”, partendo proprio dai genitori e dagli adulti. La formazione riguarda tutti, e non deve arrivare solo in situazioni emergenziali, ma attraverso un lavoro quotidiano e verticale di informazione.

Risale a pochi giorni fa l’evento online dedicato al Revenge Porn nell’ambito dell’Internet Festival, realtà che nell’ambito dei Percorsi Educativi T-Tour include la partecipazione dei licei per affrontare argomenti come l’intelligenza artificiale e la violenza digitale. Federica Bertoni ha preso parte alla tavola rotonda “Revenge porn e gli strumenti per difendersi” (insieme all’associazione Csig – Centro Studi di Informatica Giuridica di Ivrea Torino).

Ci ha fatto qualche esempio dei temi proposti agli studenti e ci ha reso partecipi del suo progetto contro la violenza digitale Donneconloscudo.I ragazzi vanno avvicinati all’interno del loro stesso terreno di gioco. Parlare all’Internet Festival di Instagram, Tik Tok e BeReal e mostrare loro il dietro le quinte del palco, ovvero come raggiungere e utilizzare quelle pagine che seppur nascoste ci sono e offrono strumenti validi di segnalazione, significa guidarli, renderli consapevoli e non abbandonarli a una tecnologia che rischia altrimenti di sopraffarli. Donneconloscudo, invece, nasce nel 2019 per diffondere le basi della sicurezza informatica e anche dell’informatica forense, fare informazione e migliorare la vita digitale dei soggetti più vulnerabili e soli“.

Cosa puoi fare se sei vittima di deepnude?

È molto utile sapere cosa puoi fare se qualcuno manipola e diffonde una tua foto con l’intelligenza artificiale per creare un fake porn foto/video. Per prima cosa è importante capire se è possibile segnalare alle piattaforme interessate il contenuto di deepnude e rivolgersi necessariamente al Garante per la Protezione dei dati personali o alla Polizia Postale. Nel caso di deepnude che diventano virali all’interno di gruppi Whatsapp (o simili, come Telegram o Snapchat) nei contesti scolastici, il consiglio è di non avere timore a chiedere l’aiuto di un genitore o un insegnante.

***

La newsletter di Alley Oop

Ogni venerdì mattina Alley Oop arriva nella tua casella mail con le novità, le storie e le notizie della settimana. Per iscrivervi cliccate qui.

Per scrivere alla redazione di Alley Oop l’indirizzo mail è alleyoop@ilsole24ore.com