C'è un altro sito che "spoglia con l'AI" le vip (e non solo). La denuncia di Francesca Barra

Dopo la denuncia di Francesca Barra per immagini “spogliate” con l’IA diffuse senza consenso, torniamo su che cos’è la violenza digitale, come si denuncia e quali tutele introduce il nuovo reato di deepfake in Italia.

*** Nota etica *** 
Come sottolineato da Selvaggia Lucarelli e Serena Mazzini, nell’articolo Il sito con le foto p*rno delle vip è molto altro  abbiamo scelto di non riportare il nome del forum per non alimentare traffico e curiosità morbosa. 

Il sito con le foto delle vip “spogliate dall’AI”

La giornalista e scrittrice Francesca Barra ha denunciato la presenza online di sue immagini false generate con l’intelligenza artificiale e diffuse su un forum internazionale che ospita sezioni dedicate a “undress AI” e a raccolte di “vip nude”. La notizia ha riacceso l’attenzione sulla pornografia non consensuale e sui deepfake sessuali, mentre – come riportato dall’ANSA – la Polizia Postale ha avviato accertamenti.

“Ho scoperto ieri che su un sito per adulti circolano immagini di me nuda, generate con l’intelligenza artificiale. Non sono io, ma qualcuno ha deciso di costruire quella menzogna per ottenere attenzione e insinuare il dubbio… È una violenza e un abuso che marchia la dignità, la reputazione, la fiducia. Un furto dell’immagine, del corpo, della libertà di essere viste come si è — non come un algoritmo o una mente malintenzionata decide di rappresentarci.”

Condividere nudo senza consenso è sempre reato

L’uso dell’IA per “denudare” corpi femminili senza consenso non è un “gioco” tecnologico: è una forma di violenza che sfrutta strumenti digitali per cancellare l’autodeterminazione. Le stesse parole di Barra spostano l’attenzione dal “se” una donna scelga o meno di mostrarsi, al diritto di decidere della propria immagine:

“Non si tratta di spogliarsi o non spogliarsi… Una donna che decide di mostrarsi nuda non è meno degna di rispetto o di protezione rispetto a chi non lo fa… Il vero nodo è il consenso.”

Questa è la differenza chiave da trasmettere, soprattutto a ragazze e ragazzi, in un contesto in cui la non-consensualità online (dai gruppi social con foto rubate ai deepfake) è in crescita anche a livello globale, come documentato da Euronews.

Cosa dice la legge oggi in Italia (in parole semplici)

Il nuovo reato di deepfake

Dal 10 ottobre 2025 è in vigore la Legge n. 132/2025 che introduce nel codice penale uno specifico reato sui deepfake: viene sanzionata la diffusione/cessione/pubblicazione di contenuti (immagini, video, audio) generati o alterati con IA che riproducono persone reali senza consenso, con pene fino a 5 anni nei casi più gravi /Fonte Federprivacy.

Le tutele già esistenti

Resta pienamente applicabile l’art. 612-ter c.p. (cosiddetto “revenge porn”) sulla diffusione illecita di immagini o video sessualmente espliciti senza consenso. Inoltre il Garante Privacy ha ribadito stop e sanzioni sui trattamenti illeciti e sui “deep nude”.

“Il silenzio non ci protegge”: perché denunciare conta

Barra ha sottolineato l’importanza di rompere l’omertà sociale e istituzionale:

“È fondamentale denunciare. Perché il silenzio non ci protegge: protegge chi abusa, chi umilia, chi usa la tecnologia per cancellare il confine tra verità e violenza.”

“Ma c’è un altro silenzio che fa male: quello di chi sceglie di tacere quando la vittima non è comoda, quando la causa non conviene… Finché i diritti verranno difesi solo a seconda di chi li rivendica, e non di cosa rappresentano, non saremo mai una società credibile.”

Cosa fare se sei vittima (o se lo è tua figlia, tua sorella, un’amica)

Passi pratici immediati

  • Raccogli prove: screenshot di pagine, URL, data/ora.

  • Segnala e richiedi la rimozione alle piattaforme/hosting.

  • Denuncia alla Polizia Postale (anche online) e querela: oggi c’è un reato specifico per i deepfake, oltre al 612-ter.

  • Chiedi supporto psicologico/legale: la violenza digitale colpisce anche la salute mentale.

“Nessuna donna, nessuna ragazza dovrebbe trovarsi di fronte a un corpo inventato e sentirsi ferita due volte: nell’immagine e con l’impunità.”

Educazione digitale (e affettiva): cosa dire ai ragazzi

La responsabilità è collettiva. Barra lo dice con chiarezza:

“Il cyberbullismo non è un problema fra ragazzi, ma uno specchio delle nostre fragilità collettive… Siamo adulti che si dicono liberi, ma spesso replichiamo la violenza con il giudizio, l’indifferenza o il silenzio.”

Educare al consenso, alla verifica delle fonti, alla non-condivisione di contenuti non consensuali è parte della prevenzione. Una cultura digitale matura si costruisce anche facendo conoscere le conseguenze penali introdotte dalla nuova legge.

“Le tecnologie non sono neutre: dipende da come le usiamo”

“Le tecnologie dovrebbero essere strumenti di progresso, non di sopraffazione… E invece, troppo spesso, diventano armi: di manipolazione, di vergogna, di distruzione dell’identità.”

Qui sta il punto: non demonizzare l’IA, ma regolamentarne gli usi, rafforzare la rimozione rapida, cooperare a livello internazionale e responsabilizzare piattaforme e utenti.

La discussione continua nel gruppo privato!
Seguici anche su Google News!