Il pericoloso bot che "denuda" le persone e le foto deepfake scambiate su Telegram

Telegram ancora al centro di scambi di immagini per revenge porn; stavolta sono foto deepfake, ovvero modificare per far credere che siano di persone nude. Almeno 700 mila donne (fra cui diverse star) ne sono rimaste vittime.

Una vera e propria rete di immagini manipolate e deepfake scambiate via chat. Parliamo ancora una volta di Telegram, l’app di messaggistica istantanea russa diventata suo malgrado celebre per i gruppi segreti in cui ragazzini e uomini adulti si scambiavano foto e commenti di natura pedopornografica.

Stavolta a finire nel mirino di questi gruppo quasi 700mila donne, diventate le vittime inconsapevoli di una tecnologia deepfake, in quello che un gruppo di ricerca ha chiamato appunto “ecosistema deepfake”, in grado di generare falsi nudi su richiesta. tramite dei bot.

Il funzionamento è fin troppo semplice: gli utenti devono soltanto inviare una foto nella chat del bot che, in pochi secondi, la riconsegna con le giuste modifiche, ovvero con il soggetto denudato. In questo modo i contenuti deepfake vengono scambiati all’interno dei canali Telegram, alimentando ovviamente anche il giro del revenge porn, visto che chiunque si voglia “vendicare” di una ex può farlo indisturbato, con foto chiaramente fake.

A scoprire il giro di immagini deepfake realizzate grazie al bot il lavoro della società di sicurezza Sensity, focalizzato in particolare su ciò che è chiamato visual threat intelligence. I ricercatori di Sensity hanno scoperto più di 100mila immagini generate e condivise nei canali pubblici di Telegram fino a luglio, ma questo dato sarebbe andato aumentando fino a raggiungere le 680 mila immagini deepfake  create e poi scambiate.

Numeri impressionanti, che coinvolgerebbero, stando ai dati emersi dall’indagine, nel 30% dei casi anche star; a questo proposito, ad esempio, proprio per smascherare alcuni gruppi di revenge porn sono servite le denunce della giornalista Diletta Leotta, in passato vittima della diffusione non consentita di immagini private, ma anche di Fedez, che ha raccolto le segnalazioni dei suoi followers rivolgendosi poi alla Polizia Postale.

Rimane però un 70% di immagini deepfake che riguardano invece persone comuni, che devono quindi vivere nel terrore di ritrovare la propria faccia su un corpo modificato ad hoc, in modo da renderlo nudo. Evidentemente non è servita l’eliminazione dell’applicazione DeepNude, creata nell’estate del 2019, da parte del suo stesso ideatore, proprio perché ritenuta troppo pericolosa; grazie alle versioni pirata, alcuni utenti sono stati in grado di sfruttare i suoi derivati per concepire nuovi bot in grado di “spogliare” le fotografie.

Non è un problema neppure aggirare la questione dei finti nudi con filigrane o nudità parziali generalmente generate dai bot, visto che è sufficiente pagare la cifra, ridicola, di 1,28 euro per accedere fino a 100 immagini di nudo completo, difficilmente distinguibili da una foto reale.

In questo brutto giro di immagini di nudo (finto, ma che sembra vero) e di revenge porn, l’Italia ha anche un triste primato, visto che risulta essere tra i quattro Paesi in cui il fenomeno è più diffuso, assieme a Russia, Stati Uniti e Argentina.

La discussione continua nel gruppo privato!
Seguici anche su Google News!