Ormai lo si sente ripetere spesso: scienza, arte e design potrebbero davvero non essere più prerogativa della mente umana. A gennaio di quest’anno Gartner (azienda leader mondiale per la consulenza nel campo della tecnologia) ha inserito l’intelligenza artificiale generativa nella classifica dei trend tech strategici per il 2022, sostenendo che questo tipo di IA ha «il potenziale per dar vita a nuove forme di contenuto creativo e accelerare i cicli di ricerca e sviluppo che vanno dalla medicina alla creazione di prodotti».
Quella generativa è una delle applicazioni più promettenti nel campo di ricerca relativo all’intelligenza artificiale. Si tratta di un insieme di metodi di deep learning (apprendimento automatico) che “imparano” attingendo dai loro stessi dati e, in seguito, generano artefatti (prodotti software) totalmente inediti. Non solo: tali artefatti sarebbero anche totalmente scevri da «quei pregiudizi tipici dell’esperienza umana e dei suoi processi di pensiero».
Un ruolo fondamentale nell’ambito delle intelligenze artificiali generative è ricoperto dalle Gan, le reti generative avversarie (Generative Adversarial Networks), un approccio introdotto per la prima volta dall’informatico statunitense Ian Goodfellow nel 2014 e basato su due diversi algoritmi di IA che competono tra loro per poi convergere in un risultato finale. I famigerati deepfake, divenuti particolarmente noti negli ultimi anni (in Italia grazie a Striscia la notizia, primo programma televisivo ad autoprodurne uno), sono un esempio di applicazione della tecnologia Gan. Il termine deepfake è nato nel 2017 per indicare una pratica deprecabile diffusa su alcuni forum di Reddit, che consisteva nel realizzare questi falsi in salsa pornografica con attrici di fama internazionale come protagoniste. Il fenomeno divenne talmente dilagante da costringere Reddit a proibire esplicitamente “l’innesto” dei volti delle star del cinema su corpi nudi.
Oggi esempi virtuosi di applicazione dell’intelligenza artificiale generativa non mancano. Polly, per esempio, è un servizio web di proprietà di Amazon e permette di convertire un testo in audio parlato. Ne esistono tre versioni e quella più sviluppata consente alle aziende di creare una voce personalizzata da utilizzare per il proprio marchio, in modo da associare un brand o una linea di prodotti a un marchio specifico. La compagnia di e-commerce statunitense offre anche DeepComposer, un’IA in grado di trasformare una breve melodia in una canzone completa, partendo da un’ampia base di modelli preimpostati che si adattano a molti dei generi musicali più comuni.
Github di Microsoft offre uno strumento chiamato CodeAssist, che dà una mano ai programmatori informatici analizzando linee di codice e suggerendo soluzioni in tempo reale; è stato addestrato su oltre un miliardo di righe di codice open source (di pubblico dominio) e si rivela un supporto utile soprattutto per chi è alle prime armi con la programmazione software.
Un caso eclatante è rappresentato invece da Ibm Research, che ha messo a disposizione alcuni dei suoi modelli per la ricerca nel campo dello sviluppo medico. In particolare, la progettazione di nuovi farmaci è un processo complesso, lungo e costoso: mediamente ci vogliono 3 miliardi di dollari e dai 12 ai 14 anni perché un nuovo prodotto di questo tipo raggiunga il mercato. Un terzo di questi costi e di queste tempistiche è attribuito alla fase di scoperta del farmaco, che richiede la sintesi di migliaia di molecole per sviluppare un brevetto preclinico.
È qui che entrano in gioco i modelli generativi profondi (come le reti contraddittorie generative): questa famiglia di tecnologie è considerata particolarmente promettente per la creazione computazionale di nuove molecole, grazie all’avanguardia nella sintesi virtuale di immagini. La ricerca nel campo dei farmaci richiede di simulare diverse combinazioni in ambiente chimico, poiché il modello deve valutare e bilanciare fattori critici come la tossicità, la facilità di sintesi o la stabilità del farmaco.
Questo processo richiede l’accesso a una grande quantità di dati per addestrare il modello generativo e può essere ottimizzato proprio con l’implementazione di versioni specifiche di questo tipo di intelligenza artificiale.
Un altro ambito che è stato toccato dallo sviluppo delle Gan è quello dell’arte. Sono ormai molteplici le opere frutto di un algoritmo (anzi, di due algoritmi in competizione). Tra tutte, il Ritratto di Edmond Bellamy, battuto all’asta da Christie’s nell’ottobre 2018 al prezzo di 432mila dollari. In quel caso, il software “autore” si era allenato partendo da una base di 15mila opere realizzate tra il XIV e il XX secolo.
Lo sviluppo di IA generative sempre più elaborate porta con sé una serie di preoccupazioni.
Il fenomeno dei deepfake ha già inquietato il mondo per la sua capacità di distorcere la realtà, minando la capacità di molti utenti (specie di quelli meno abituati alla cultura del digitale) di fidarsi delle immagini o delle registrazioni audio diffuse sul web (e non solo). Il caso Reddit del 2017 ha dimostrato che la creazione di fake sempre più realistici potrebbe essere utilizzata per ricatti, estorsioni o vendette. In prospettiva, le implicazioni che questo genere di software potrebbero avere sul mondo della politica o su quello giudiziario sono spaventose.
Per questo, è essenziale che gli algoritmi di rilevamento progrediscano di pari passo a quelli usati per la contraffazione. Il futuro, tuttavia, potrebbe evolversi in una sorta di gioco del gatto e del topo, con gli uni che inseguono gli altri in una corsa continua al software più all’avanguardia.
Al momento possiamo essere ottimisti: esistono già strumenti avanzati in grado di individuare i deepfake e di contrastarne la diffusione capillare. Insomma, a essere in vantaggio, per ora, sono i buoni.