Gioco pericolosoL’umanità deve imparare a valorizzare il potenziale dell’Intelligenza artificiale

Intervista a Demis Hassabis, sviluppatore di videogame, neuroscienziato e imprenditore che spiega come l’IA acceleri molto la ricerca scientifica e perché i chatbot non saranno solo un passatempo

AP/Lapresse

Questo è un articolo del nuovo numero di Linkiesta Magazine + New York Times Turning Points 2024 in edicola a Milano e Roma e negli aeroporti e nelle stazioni di tutta Italia. E ordinabile qui.

Quando si chiede a chi sta lavorando sull’Intelligenza Artificiale (comprese quelle persone che credono che l’I.A. potrebbe fare danni terribili al mondo) «Perché lo state facendo?» oppure «Qual è lo scopo di tutto questo?», nessuno risponde: «Beh, perché vale la pena di rischiare tutte quelle terribili conseguenze per chattare con ChatGPT che è così divertente!». La risposta, invece, è: «Beh, perché l’I.A. risolverà tutti i terribili problemi scientifici che abbiamo e perché darà avvio a un’era di innovazioni senza precedenti nella storia dell’umanità». Non ci sono ancora molti esempi di I.A. in grado di fare qualcosa di simile. Ma un esempio c’è: AlphaFold, il sistema costruito da DeepMind, che è in grado di prevedere la struttura di centinaia di milioni di proteine. Si tratta di un enorme progresso scientifico. Demis Hassabis è uno dei fondatori di DeepMind. Questa azienda è ora di proprietà di Google e recentemente il signor Hassabis è stato messo a capo di tutto il settore di Google dedicato all’I.A., che ora si chiama Google DeepMind ed è gestito interamente da lui. Questo fa di Hassabis una delle persone più importanti al mondo, dal momento che sta tracciando il futuro dell’Intelligenza Artificiale.

Ezra Klein: Raccontami della fondazione di DeepMind. Come hai iniziato?
Demis Hassabis: Beh, in realtà, il mio percorso nel campo dell’I.A. inizia molto prima di DeepMind. Ho iniziato nell’industria dei videogiochi, scrivendo giochi per computer tra cui alcuni bestseller come Theme Park e Black and White e altri giochi a cui ho lavorato durante l’adolescenza. Questi giochi avevano tutti l’Intelligenza Artificiale come componente fondamentale. Se si ripercorre la mia carriera, si vede che ho fatto un sacco di cose diverse, ma tutte con un approccio simile a quello di DeepMind, e cioè lavorando sull’Intelligenza Artificiale Generale. Quindi lo studio dell’informatica, il conseguimento della laurea e il dottorato in neuroscienze sono serviti a raccogliere informazioni e ispirazione per quello che sarebbe poi diventata DeepMind.

Per te, che cos’è l’Intelligenza Artificiale?
Penso che l’I.A sia la scienza che rende le macchine intelligenti e che una sottobranca dell’I.A. sia l’apprendimento automatico, ovvero il tipo di sistema di I.A. che impara da solo e apprende direttamente dai dati e dall’esperienza. È questo il vero motore della rinascita dell’I.A. negli ultimi dieci o quindici anni. Ed è questo il tipo di I.A. su cui stiamo lavorando oggi.

Fin dalla sua fondazione, DeepMind sta cercando di costruire questo nuovo tipo di intelligenza. E per costruirla, addestrarla e testarla la applica ai videogiochi. Mi parli della decisione di iniziare ad addestrare l’I.A. sui videogiochi, perché non mi sembra una cosa del tutto intuitiva.
Sì, questa è stata una delle prime decisioni che abbiamo preso quando abbiamo fondato DeepMind e credo che la cosa abbia funzionato molto bene. All’epoca, molte persone che lavoravano sull’Intelligenza Artificiale si occupavano soprattutto di robotica e della collaborazione uomo-robot. Ma i ricercatori finivano per passare la maggior parte del tempo a smanettare con l’hardware e i motori dei server, che si rompevano di continuo. I robot sono costosi e sono complicati. Sono lenti. Mi sono reso conto che in cloud avremmo potuto eseguire simultaneamente milioni di esperimenti ottenendo dei tassi di apprendimento molto più rapidi in modo relativamente economico, veloce e semplice. L’altro vantaggio connesso ai giochi è che sono stati costruiti per essere sfidati dagli esseri umani e si possono quindi usare i migliori giocatori umani come benchmark. I giocatori hanno obiettivi chiari: devono vincere la partita o massimizzare il punteggio. Gli obiettivi di questo tipo sono molto utili se si vogliono addestrare i cosiddetti “sistemi di apprendimento per rinforzo” in cui siamo specializzati, che funzionano attraverso la ricerca di ricompense e sono orientati a raggiungere degli obiettivi. L’altro aspetto interessante è che si può salire nella scala della complessità semplicemente passando attraverso le diverse generazioni di giochi. Così si può continuare ad aumentare la difficoltà dei test a cui sottoporre i propri sistemi di I.A. man mano che diventano più sofisticati.

Di tutti i sistemi di Intelligenza Artificiale che sono stati rilasciati, quello che mi ha sempre colpito e interessato di più è AlphaFold, che è un sistema creato da DeepMind. Spiegami che cos’è AlphaFold: qual era il problema e come siete arrivati a decidere che si trattava di un qualcosa che i vostri sistemi potevano affrontare?
AlphaFold è il nostro programma che cerca di risolvere il problema del ripiegamento delle proteine. Fondamentalmente, ogni funzione biologica del corpo è mediata dalle proteine. E le proteine sono descritte dalla loro sequenza di amminoacidi, che è una stringa monodimensionale di lettere. Ma nell’organismo le proteine si accartocciano molto, molto rapidamente in una forma tridimensionale ed è proprio la forma tridimensionale di una proteina quella che ne regola la funzione. Quindi il problema relativo al ripiegamento delle proteine è essenzialmente questo: è possibile prevedere dalla sequenza degli amminoacidi la forma tridimensionale che prenderà una specifica proteina? Il motivo per cui questo aspetto è così importante è che molte malattie sono causate da un errato ripiegamento delle proteine. Inoltre, se si vogliono progettare dei farmaci per combattere le malattie, è necessario conoscere quale sia la superficie della proteina e, quindi, la forma della proteina, in modo da sapere quali parti della proteina colpire con la composizione del farmaco.

Che cosa vi ha fatto pensare che il ripiegamento delle proteine fosse come un videogioco?
Ho scoperto la questione del ripiegamento delle proteine negli anni Novanta, quando ero all’università, perché a Cambridge avevo molti amici biologi che erano ossessionati da questo problema. Mi feci spiegare di che cosa si trattasse e pensai che fosse un tema affascinante. E pensai anche che fosse un problema perfetto per essere affrontato, un giorno, dall’Intelligenza Artificiale. Poco prima del 2010 mi sono imbattuto un’altra volta nella questione del ripiegamento delle proteine. C’era un videogame che si chiamava Foldit. Era un gioco di citizen science. Un laboratorio aveva creato un puzzle game in cui le persone dovevano piegare le proteine in un’interfaccia tridimensionale. Non penso che fosse un gioco molto divertente, ma l’avevano trasformato in un’interfaccia abbastanza facile da usare. Alcune decine di migliaia di giocatori amatoriali ne erano ossessionati. Ricordo di averci fatto caso e di aver pensato: «Wow, è davvero affascinante che si possa convincere la gente a occuparsi di scienza giocando». Quindi mi sono informato meglio e sono venuto a sapere che alcuni di quei giocatori avevano capito che certi ripiegamenti controintuitivi di quella stringa di sequenze di amminoacidi che costituisce la spina dorsale della proteina la portavano al giusto tipo di struttura tridimensionale. Ricordo che ho connesso queste informazioni che avevo raccolto riguardo a Foldit con quello che avevamo fatto con AlphaGo, un software grazie a cui eravamo riusciti a imitare le intuizioni di alcuni incredibili maestri di go (che è un gioco da tavola cinese, ndr). Così ho pensato: «Siamo riusciti a far sì che AlphaGo imitasse la capacità intuitiva di alcuni professionisti del go, che dedicavano tutta la vita a quel gioco. In questo caso, invece, si tratta di giocatori dilettanti che non sanno nulla di biologia. Perché non dovremmo essere in grado di far imitare anche le intuizioni di questi giocatori dilettanti?».

Quando si prevede la struttura di una proteina che fino ad allora non era stata prevista, come si fa a sapere se si ha ragione? Come lo si verifica?
Nel mondo reale non esistono delle cose semplici che ci sono invece nei videogame come i punteggi o i criteri in base a cui si determina se un giocatore ha vinto. Ma, per quanto riguarda le proteine e la biologia, ci sono degli elementi che possono essere utilizzati in modo abbastanza simile, come la minimizzazione dell’energia usata nel sistema. La maggior parte dei sistemi naturali cerca di essere efficiente dal punto di vista energetico, quindi si può seguire un gradiente energetico o l’energia libera del sistema e cercare di minimizzarla. Inoltre, esiste una lunga storia di minuzioso lavoro sperimentale. In cinquant’anni di sforzi umani in tutti i laboratori del mondo, i biologi sono riusciti a trovare la struttura di circa 100.000-150.000 proteine, tutte depositate in un database chiamato Protein Data Bank. Questo è ciò che possiamo usare come corpus per l’addestramento. Ma possiamo anche utilizzare quelle informazioni per testare le nostre previsioni.

Quindi si conosce la struttura di un numero compreso tra le 100.000 e le 150.000 proteine, su 100 o 200 milioni di proteine che conosciamo. Non si tratta di un dataset molto ampio per permettere un addestramento. E allora a quel punto so che tutti voi fate una cosa che, a quanto mi risulta, è piuttosto pericolosa e di solito disapprovata: il sistema inizia ad addestrarsi usando le previsioni che egli stesso ha fatto. Ma come si fa a evitare che, procedendo in questo modo, l’I.A. diventi per così dire endogamica?
Come hai detto, 150.000 dati sono pochi per i sistemi di apprendimento automatico. Quindi una delle cose che abbiamo dovuto fare è stato aumentare i dati reali per poter costruire una prima versione di AlphaFold. Credo che siamo riusciti a fargli fare circa 1 milione di previsioni di nuove proteine. Abbiamo fatto in modo che valutasse se stesso e determinasse quanto fosse fiducioso delle varie predizioni che aveva fatto. Abbiamo quindi fatto una sorta di selezione prendendo in considerazione solo il 30-35 per cento migliore, e cioè circa 300.000 predizioni. E abbiamo messo quelle predizioni nel dataset di addestramento in aggiunta ai 150.000 dati reali. Così abbiamo messo insieme circa mezzo milione di strutture, un numero che comprende ovviamente anche quelle previste dalla macchina, per addestrare il sistema finale. Il sistema era abbastanza buono da raggiungere la soglia di accuratezza atomica. Ciò significa che, come comunità scientifica, avevamo giusto una quantità di dati sufficiente per progredire verso il processo di self-distillation. E pensiamo che il motivo per cui è andata bene sia che siamo stati molto attenti e, soprattutto, che potevamo contare su una quantità abbastanza grande di dati reali. Avevamo un misto di dati reali e di dati generati, e questo era sufficiente per mantenere il sistema in carreggiata. Inoltre, ci sono stati molti ottimi test – indipendenti – per verificare la bontà di queste previsioni del sistema nel loro insieme, anche perché nel corso del tempo nuovi sperimentatori hanno depositato nel database nuove strutture che non erano ancora disponibili quando avevamo iniziato ad addestrare il sistema. E così abbiamo potuto confrontare l’accuratezza delle previsioni fatte dal sistema con i nuovi dati sperimentali.

Voglio unire questo aspetto con una cosa che probabilmente è più familiare a chi segue le vicende connesse all’I.A., ovvero il problema delle allucinazioni. Quando si usa ChatGPT, o almeno alcune versioni di ChatGPT, è comune che uno ponga una domanda reale e che il programma si limiti a inventare una qualche citazione per soddisfare l’interlocutore.
Gli attuali chatbot sono un po’ come degli idiot savant. Si limitano a produrre la cosa più immediata che viene loro in mente. Abbiamo bisogno di un po’ di riflessione, di pianificazione e di ragionamento per fare una sorta di controllo di conformità sulla predizione che ci viene proposta. Ed è quello che fanno “i sistemi di apprendimento profondo per rinforzo” per i quali siamo conosciuti: la parte di apprendimento rinforzato e la parte di planning fa la tara a quello che il modello afferma.

Un progetto che recentemente ha molto coinvolto AlphaFold è quello di Isomorphic Labs, un’azienda di Alphabet, che è la società-madre di Google. Parlami un po’ di Isomorphic. Qual è la teoria scientifica su cui si basa? E qual è la teoria commerciale?
AlphaFold è molto importante perché penso che possa contribuire ad accelerare la scoperta di farmaci e quindi la cura della malattie. Ma questa è solo una parte del puzzle. Isomorphic è l’azienda gemella di DeepMind. Ha il compito di costruire delle altre AlphaFold, operando però in campi contigui, spostandosi cioè verso la chimica: l’obiettivo è progettare delle piccole molecole, prevedendo le diverse proprietà di queste piccole molecole, assicurandosi di minimizzare cose come la tossicità e gli effetti collaterali e massimizzando il potenziale di legame di queste molecole con la proteina con cui vogliamo che si leghino.

So che siete interessati a costruire un sistema di Intelligenza Artificiale Generale. Puoi parlarmi un po’ di qual è, secondo te, il percorso da seguire per raggiungere questo obiettivo?
La nostra missione è creare quel grande sistema generale. È così che funziona il cervello. Noi esseri umani abbiamo un unico sistema e possiamo fare molte cose con la nostra mente. Ora: io ho sempre pensato che, anche se perseguiamo quell’obiettivo, non dobbiamo però aspettare di arrivare all’Intelligenza Artificiale Generale (I.A.G.) prima di poter fare qualcosa. Anche prima di allora, si possono ottenere delle cose incredibili da sistemi che utilizzano lo stesso tipo di tecniche, per quanto specializzate solo in qualche specifico settore. AlphaFold è un ottimo esempio di tutto ciò, anzi forse è il miglior esempio di una cosa simile che sia stata realizzata finora nell’ambito dell’I.A. Penso che nella prossima generazione di sistemi – peraltro anche noi stiamo lavorando a un nostro nuovo sistema che si chiama Gemini – ci sarà una combinazione delle due cose. Avremo un sistema generale sempre più potente con cui si interagirà fondamentalmente attraverso il linguaggio, ma questo sistema avrà anche delle altre capacità generali, come il calcolo matematico e la programmazione, e, alla fine, nelle successive generazioni, forse anche un po’ di capacità di ragionamento e di planning. Una delle cose che questi sistemi possono fare è utilizzare degli strumenti. Perché in effetti, per ottenere i risultati che devono raggiungere, possono sollecitare e utilizzare degli strumenti, che sono di diversi tipi: ad esempio, dei pezzi di software già esistenti che i sistemi possono imparare a usare attraverso l’“apprendimento per rinforzo”, oppure degli altri sistemi di Intelligenza Artificiale o degli altri sistemi di apprendimento. Non credo che abbia molto senso che il modello linguistico sappia come piegare le proteine. Si tratterebbe, mi pare, di un’eccessiva specializzazione nell’ambito del suo corpus di dati che sono relativi al linguaggio e a tutte le altre cose generali che deve imparare. Credo che se il modello linguistico avesse bisogno di piegare delle proteine allora sarebbe più efficiente se per farlo si rivolgesse a qualche altro sistema di Intelligenza Artificiale e utilizzasse qualcosa come ad esempio AlphaFold. La cosa interessante è che, a un certo punto, molte di queste capacità verranno reinserite nel sistema generale. Però credo che, almeno nel prossimo stadio di sviluppo, vedremo un sistema generale che si avvarrà di questi sistemi specializzati.

C’è una cosa che mi preoccupa un po’: mi sembra che all’umanità possano derivare molti benefici da questi sistemi più scientifici e non-umani, ma che l’hype, gli investimenti e le energie si concentrino invece verso altri sistemi più umani e, per così dire, più familiari. E temo che questi sistemi non saranno altrettanto benefici.
Credo che noi, anche nella nostra nuova veste di Google DeepMind, continueremo a spingere molto su entrambe le frontiere. Il progresso della scienza e della medicina sarà sempre al centro di ciò che facciamo e della nostra missione generale a beneficio dell’umanità. Ma ci impegneremo a fondo anche su prodotti di nuova generazione che offriranno esperienze inedite e incredibili a miliardi di utenti aiutandoli nella loro vita quotidiana. E provo altrettanto entusiasmo per entrambi i settori di sviluppo. Secondo me, è un po’ come se gli AlphaFold fossero degli strumenti scientifici che gli esperti possono utilizzare per migliorare il loro lavoro e accelerare le loro importantissime attività di ricerca mentre i chatbot non sono altro, per ora, che un passatempo divertente. Ma credo che in quel campo ci sia ancora molto da fare. Il punto in cui prevedo che i due settori possano trovare una convergenza è lo stesso di cui abbiamo discusso prima parlando dei sistemi generali: il fatto che forse vi si interagirà con il linguaggio. Credo che si possa creare un’interessante combinazione spingendo più in là i confini di entrambi i settori di sviluppo ed è questo ciò che intendiamo fare in futuro.

Se siamo giunti al punto in cui qualcuno si sta avvicinando a qualcosa che assomiglia a un sistema di Intelligenza Artificiale Generale, non si tratta forse di una tecnologia troppo potente perché possa rimanere in mani private? Secondo te è opportuno che rimanga sotto il controllo della prima azienda che ci arriva, qualunque essa sia? O abbiamo bisogno che a governarla sia qualche altra entità?
La mia opinione personale è che la questione sia più grande di una singola società o di una singola nazione. Credo che sia necessaria una cooperazione internazionale. In passato, ho spesso detto che per la I.A.G. servirebbe uno sforzo simile a quello del CERN: quando ci avvicineremo, forse tra molti anni, a un sistema di I.A.G., mi piacerebbe vedere all’opera qualcosa di simile, un organismo in cui si faccia una ricerca davvero accurata sul lato della sicurezza, per capire che cosa questi sistemi possano fare e magari per testarli in condizioni controllate e con l’ausilio di molte protezioni di cybersecurity. Credo che questa sarebbe una buona strada da percorrere mentre ci avviciniamo a dei sistemi di Intelligenza Artificiale di livello umano.

© 2023 THE NEW YORK TIMES COMPANY

Questo è un articolo del nuovo numero di Linkiesta Magazine + New York Times Turning Points 2024 in edicola a Milano e Roma e negli aeroporti e nelle stazioni di tutta Italia. E ordinabile qui.

Non si interrompe un’emozione, figuriamoci la Soncini!

X

Linkiesta senza pubblicità, per gli iscritti a Linkiesta Club

Iscriviti a Linkiesta Club