Carne sinteticaIl porno generato dalle intelligenze artificiali diventa sempre più accurato (e pericoloso)

L’uso della tecnologia generativa nei siti hard costituisce una realtà preoccupante, dalla pedopornografia al deepfake per estorsioni, sollevando dubbi e gravi preoccupazioni

Immagine generata con Unstable Diffusion.

Negli anni Novanta il World Wide Web era nato da poco e secondo molti sarebbe diventato la nuova frontiera dei contenuti hard. Avevano ragione: era solo questione di tempo prima che il voyeurismo spinto s’intrecciasse inesorabilmente con i destini di Internet, così come aveva fatto con il cinema diversi decenni prima. Allo stesso modo, era facile immaginare che l’arrivo di un nuovo linguaggio come quello delle intelligenze artificiali generative avrebbe aperto nuove porte alla pornografia.

Ciò che non era semplice prevedere erano gli sconcertanti progressi che si sarebbero compiuti in questo campo. Fino a pochi mesi fa, la maggior parte degli algoritmi basati su input testuali faticava a produrre immagini di nudo discrete, non riuscendo a comprendere anche le più elementari sfumature anatomiche dei soggetti generati (in particolare mani, gomiti e altri dettagli). Oggi i servizi online in grado di restituire contenuti a luci rosse hanno fatto passi avanti notevoli, sollevando nuovi interrogativi e rimpinguando ulteriormente il frastornante dibattito legato ai rischi dell’intelligenza artificiale. La «pornografia sintetica», infatti, è diventata vera e propria merce di scambio e sta iniziando ad avere un impatto spaventoso anche nel mondo reale, con tutte le conseguenze del caso.

Immagine generata con Unstable Diffusion.

Intelligenza artificiale e pedopornografia
Tra i fenomeni che destano maggiore allarme nell’utilizzo dell’intelligenza artificiale generativa c’è la pedopornografia. Le chat del dark web pullulano ormai di vere e proprie guide per la realizzazione di immagini fotorealistiche di minori: scrivendo poche righe di testo, gli utenti sono in grado di produrre contenuto in abbondanza, grazie all’immediatezza di servizi alla portata di tutti. Un’inchiesta del Washington Post pubblicata a giugno ha rivelato un sistema diffuso di produzione di immagini di abusi su minorenni su molti forum frequentati da pedofili del cosiddetto web sommerso (in un caso, l’ottanta per cento dei membri di una delle community analizzate ha dichiarato di aver generato o di voler generare contenuto di questo tipo).

Nonostante le piattaforme più famose come Midjourney o DALL-E 2 si siano mobilitate per bloccare la produzione di contenuti pornografici in toto, realtà come Unstable Diffusion continuano a permettere questa pratica senza limitazioni, rendendola la chiave del proprio successo. Stability AI, l’azienda che distribuisce il codice open source della piattaforma e che ne rende possibile l’esistenza, ha più volte dichiarato il divieto di creazione di immagini pedopornografiche, collaborando con le forze dell’ordine nelle indagini sugli usi «illegali o maligni» e cercando di rimuovere il materiale compromettente dal database usato per l’addestramento del software (per quanto azioni di “pulizia” totale restino impossibili, come sa bene chi si occupa di deep learning).

Stando a quanto rivelato dal Washington Post, gli addetti ai lavori di Stability AI che avevano testato l’algoritmo prima di renderlo noto avevano discusso per mesi dell’eventualità dei pericoli legati alla generazione di immagini a sfondo sessuale. Tuttavia, l’azienda aveva deciso di portare avanti la sua idea di strumento open source, senza porre limitazioni alla libertà creativa degli utenti. L’anno scorso, Emad Mostaque, l’amministratore delegato della compagnia, aveva dichiarato a The Verge che sarebbe stata «responsabilità delle persone comportarsi in maniera etica, morale e legale nell’utilizzo di questa tecnologia», aggiungendo che le cose negative create con l’algoritmo «avrebbero rappresentato una percentuale molto, molto piccola dell’utilizzo totale».

Nonostante alcune difficoltà (tra cui l’interruzione dei progetti di finanziamento su Kickstarter e Patreon), Unstable Diffusion ha raccolto oltre ventiseimila dollari dai donatori sul web, assicurandosi l’hardware necessario per addestrare l’algoritmo personalizzato e riuscendo a creare un dataset di oltre trenta milioni di fotografie. Stando alle parole degli sviluppatori, oggi viene utilizzata da più di trecentocinquantamila persone al giorno per sfornare oltre mezzo milione di immagini. Molte delle quali, per l’appunto, di natura illegale.

Ora la società ha in programma di potenziare l’infrastruttura di calcolo, una sfida continua viste le dimensioni crescenti della sua comunità (chi scrive ha passato del tempo sul sito e può testimoniarne la lentezza: una singola immagine impiega anche più di un minuto per essere generata). L’obiettivo è quello di creare ulteriori opzioni di personalizzazione e funzioni di condivisione sociale, utilizzando Discord come trampolino di lancio. Contattato da TechCrunch, anche Arman Chaudhry, uno dei fondatori del servizio, ha parlato di «libertà di espressione» nel difendersi dalle accuse rivolte alla sua piattaforma, attingendo a piene mani da un concetto tanto nobile quanto ormai potenzialmente devastante nell’epoca fluida dell’intelligenza artificiale.

Come se non bastasse, negli Stati Uniti le immagini pedopornografiche generate hanno acceso un dibattito sul fatto che rappresentino o meno una violazione delle leggi federali sulla protezione dei minori, in quanto spesso ritraggono bambini inesistenti. I funzionari del Dipartimento di Giustizia hanno affermato che il materiale risulta illegale anche se il soggetto mostrato è prodotto in maniera “sintetica”, pur non citando alcun caso concreto. In Italia le immagini di questo tipo realizzate tramite intelligenza artificiale non sono ancora disciplinate legalmente. Tuttavia, dal 2006 una legge punisce il possesso, la creazione e il commercio di «pornografia minorile virtuale» realizzata con «tecniche di elaborazione grafica».

Immagine generata con Unstable Diffusion.

Fake e Deepfake, tra estorsioni e truffe
Di recente, diversi utenti di Reddit sono stati coinvolti in una truffa partita dall’account di una presunta ragazza, tal “Cl4ud1a”, che aveva pubblicato una serie di fotografie che la ritraevano in abiti succinti e in pose provocanti. Una delle immagini era un selfie che mostrava i suoi capelli nero corvino e i lineamenti slavi: abbastanza da convincere moltissimi profili a offrirle denaro per ottenere contenuti più espliciti. Si trattava, come facilmente intuibile, di immagini generate da Stable Diffusion. Come scoperto in seguito, la donna era stata creata da due studenti che avevano deciso di verificare quanto potesse essere sfruttata per ingannare gli utenti maschili del forum. L’inganno è andato avanti fino a quando qualcuno non ha chiesto alla ragazza di mostrare le sue mani, la parte del corpo che le intelligenze artificiali fanno più fatica a generare con precisione (di fatto perché è la parte anatomica che nelle foto risulta più mutata, essendo solitamente piegata o intenta a gesticolare: questo articolo di Science Focus lo spiega in maniera più accurata).

Quello di “Cl4ud14” è solo uno dei tanti casi di raggiro avvenuti su Reddit o su altri social media. Sfortunatamente però, la generazione di materiale osceno attraverso gli algoritmi riguarda sempre di più anche gli individui reali. La scorsa estate, due quattordicenni romani hanno rischiato un’accusa di produzione e diffusione di materiale pedopornografico a causa di una foto che ritraeva una loro compagna di scuola nuda, fatta circolare senza il suo consenso. L’immagine era stata generata con Bikinioff, un bot di Telegram che attraverso l’intelligenza artificiale è in grado di riprodurre le nudità di una persona partendo da una semplice fotografia, in maniera estremamente realistica. Nonostante il gip Federico Falzone avesse poi dichiarato il non luogo a procedere per «irrilevanza del fatto», l’episodio ha messo in luce i rischi concreti legati alla larga diffusione di strumenti basati su algoritmi generativi.

Immagine generata con Unstable Diffusion.

Ancora più preoccupante è il trend relativo ai deepfake, i video sintetizzati da IA che ricreano le caratteristiche di un volto o di un corpo in movimento. Nel 2019, secondo un report di DeepTrace Technologies, il 96 per cento di questo genere di contenuti su Internet era di natura pornografica e in stragrande maggioranza riguardava donne realmente esistenti. Da allora, la proliferazione di servizi di intelligenza artificiale non ha fatto che esacerbare il fenomeno, moltiplicando gli episodi di estorsioni volti a umiliare soggetti ricattabili (soprattutto ex compagne) e rendendo sempre più evidente la mancanza di tempismo negli interventi delle forze dell’ordine.

Le newsletter de Linkiesta

X

Un altro formidabile modo di approfondire l’attualità politica, economica, culturale italiana e internazionale.

Iscriviti alle newsletter