Il 96% delle immagini generate dall’Intelligenza Artificiale sono immagini di pornografia non consensuale. E il 99% delle vittime sono donne.

Con l’avvento di internet, la pornografia non consensuale si è trasformata in revenge porn e le immagini sono uscite dal contesto domestico per raggiungere una platea potenzialmente infinita di fruitori. Questi nuovi modelli di condivisione delle immagini hanno democratizzato l’accesso a un nuovo tipo di intimità sintetica, che si genera senza consenso e avviene senza essere rilevata, in violazione dei più semplici diritti umani. E il danno è irreversibile.

Il fenomeno è tristemente diffuso, come testimoniano le ultime notizie di cronaca. Molti autori sono uomini abbandonati in cerca di vendetta, altri hanno intenzione di diffamare e umiliare un collega, un capo, o qualsiasi professionista per porre fine alla sua carriera.

Sebbene i danni prodotti da questa nuova tendenza siano tangibili, vi sono ancora troppi tabù sull’argomento che impediscono in molti casi l’attivazione concreta delle autorità contro la violenza digitale.

Sophie Maddox, un’accademica specializzata in cyberviolenza di genere, ha dichiarato che ci sono due motivi per cui ciò avviene. Il primo è un misto di tabù e discriminazione. La pornografia è un argomento che le istituzioni non vogliono trattare. E il fatto che colpisca quasi esclusivamente le donne sottopone la questione allo stesso tipo di discriminazione delle leggi sull’aborto e sullo stupro. La seconda è molto sottile: “la pornografia sintetica rafforza la gerarchia esistente“, ha spiegato Maddox.

“Rilegittima la realtà delle donne come oggetti sessuali e come persone che meritano di essere credute meno degli uomini”. La disinformazione politica minaccia il nostro senso della realtà, ma la violenza informatica basata sul genere lo consolida.

A dimostrazione di ciò, Sam Altman – CEO di OpenAI – non ha incluso nel suo discorso relativo alla creazione di un’Agenzia internazionale di supervisione dell’IA la questione della pornografia online non consensuale. Eppure la maggior parte dei contenuti di questo tipo viene creata utilizzando servizi commerciali come MidJourney o GPT-4, che suggeriscono soluzioni disponibili sotto forma di moderazione. La violenza digitale, quindi, non è essenzialmente un problema “tecnico” ma una realtà che necessiterebbe solo di un maggior controllo.

La discussione continua nel gruppo privato!
Seguici anche su Google News!