Queste righe che state leggendo sono state scritte da un essere umano o da una intelligenza artificiale? Ormai non è più possibile capirlo. Dovete fidarvi. Le macchine, come vedremo, generano testi che sono indistinguibili dai nostri (spesso sono migliori). Non vi deve sorprendere… prima o poi doveva succedere.
Per molti secoli l’essenza dell’essere umano è stata la sua capacità di parlare, di sviluppare un ragionamento verbale, di descrivere il possibile e l’impossibile usando il linguaggio. Rassegnatevi, questa capacità non è più una prerogativa della nostra specie. Il nome da ricordare è GPT-3 della Open AI. Che cosa è?
Per capirlo, facciamo un passo indietro. Nel 2019, OpenAI crea un’intelligenza artificiale chiamata GPT-3, in grado di generare testi paragonabili a quelli prodotti dagli esseri umani. GPT-3, un nome non del tutto amichevole, è in grado di conversare su ogni argomento, sviluppare ragionamenti e, da un punto di vista esterno, parlare un po’ di tutto. In realtà ha dei limiti, ma li vedremo poi.
Questa nuova intelligenza artificiale è in grado di riprodurre il linguaggio naturale degli esseri umani. Si tratta di un progetto complesso con milioni, anzi miliardi di parametri (175 miliardi per la precisione) che possono essere modificati in modo da riprodurre ogni declinazione del linguaggio (anche musicale, visuale o informatico). GPT-3 non viene fornito direttamente agli sviluppatori, ma soltanto attraverso una interfaccia software (una API per chi mastica un po’ di informatica) che consente di usarlo senza però possederlo completamente (un po’ come con i servizi sul cloud).
Ma GPT-3 non è solo! Proprio in questi giorni a Pechino, in Cina, il BAAI (Bejin Academy of Artificial Intelligence) ha trionfalmente annunciato di avere realizzato una intelligenza artificiale analoga, WuDao 2.0, anzi migliore: utilizzerebbe un numero di parametri 10 volte maggiore, ovvero raggiungerebbe l’astronomica cifra di 17,5 mila miliardi di parametri.
Il progetto di avere un generatore universale è tanto ambizioso quanto di difficile utilizzo. Infatti sia GPT-3 che WuDao 2.0 sono talmente universali che, per essere applicati a un contesto particolare, hanno bisogno di essere messi a punto. Sono macchine universali per la generazione di ogni linguaggio e proprio in questa generalità hanno il loro tallone di Achille: per essere commercialmente attraenti devono competere, in ambiti specifici, con altre intelligenze artificiali che nascono già con una specializzazione definita.
Vi fa venire in mente qualcosa? A me sì: i primi ominidi che si trovarono a competere nella savana con tante specie molto più specializzate ed efficienti ma che, alla lunga, persero di fronte al grande dilettante: l’essere umano. Oggi GPT-3 è il nuovo grande dilettante, capace di fare un po’ di tutto e niente in particolare.
In ogni caso, al momento, GPT-3 e il suo gemello cinese WuDAo 2.0 non hanno immediate applicazioni pratiche. Il suo primo investitore, il celebre Sam Altman (uno che ha le mani in tasca a progetti di enorme successo commerciale come Airbnb o Dropbox), ha dichiarato in una famosa intervista a Techcrunch del maggio 2019 che «finora GPT-3 non ha prodotto alcun ricavo. Non abbiamo nessuna idea di come possa diventare redditizio oggi o domani».
E infatti la sua società, nonostante ricevesse notevoli investimenti da finanziatori privati, non nascondeva di avere problemi di qualità. Nessun problema, nel settembre 2020 è arrivata la cavalleria: la più grande società informatica del mondo, la Microsoft, ha finanziato OpenAI con oltre un miliardo di dollari.
E qui si gioca un passaggio fondamentale: dai pionieri ai grandi investitori. L’intelligenza artificiale è la nuova frontiera, il nuovo west da conquistare a ogni costo, arrivando per primi e creando quelle economie di scala che gli altri non potranno sfidare. Lo fanno gli americani (tra di loro) e lo fanno, lo abbiamo visto sopra, i cinesi.
Il punto è che non importa quanto costa oggi gettare le infrastrutture, ma quello che domani consentiranno di fare. GPT-3 non è un punto di arrivo, è la ferrovia che attraversa il west e che porterà prima i minatori, le prostitute, i fuorilegge e poi i banchieri, gli immigrati, gli industriali. È un passaggio simile a quello che vide la staffetta tra la generazione di Edison e Tesla e quella di Morgan e Westinghouse.
È significativo vedere l’analogia con il primo momento, quello delle startup coraggiose che si sono lanciate in progetti a volte troppo grandi per loro e quello che sta succedendo in questi ultimi mesi, con le grandi compagnie (Microsoft, Tesla, Apple, Google) che le stanno sistematicamente comprando e, in parte, snaturando.
Torniamo a GPT-3, programma universale in grado di creare qualsiasi linguaggio, cosa se ne fa Microsoft? Per adesso lo sta indirizzando verso tre canali principali: piattaforma di sviluppo dove altri creatori potranno utilizzare GPT-3 per applicazioni nuove, potenziamento della sua offerta di strumenti per l’intelligenza artificiale (tra cui Azure), creazione di piccoli strumenti per le sue applicazioni di successo (tra cui, banalmente, Office per Windows).
L’idea è quella di avere applicazioni che parlano come noi e con le quali noi potremmo parlare normalmente. Vi ricordare il computer di bordo della USS-Enterprise, l’astronave al centro delle avventure di Star Trek? O la voce suadente di Scarlett Johansson che interpreta una intelligenza artificiale in Lei capace di fare innamorare Joaquin Phoenix qualche anno fa?
Ecco, l’idea è questa: rivestire i codici astrusi dell’intelligenza artificiale dentro un guscio soffice di parole. Ma dentro questo guscio, c’è qualcosa o si nasconde il vuoto?
Questa domanda, oggi, cerca di giustificare il peccato originale della teoria dell’informazione; qualcosa che ogni computer e software si portano con sé perché, alle origini di tutto, i nostri computer sono stati basati su un modello che non prevede il significato.
Semplifico: i bit non hanno colore, suono, sangue. Un videogioco non soffre o gioisce, una simulazione del mare non bagna, un modello del sole non scalda. Dentro i computer, per quanto ne sappiamo, il linguaggio è trasformato in una successione di simboli privi di significato e questi simboli prendono vita solo quando noi gli doniamo il nostro tempo, la nostra attenzione, il nostro spirito.
Lo aveva detto il fondatore della teoria dell’informazione, Claude Shannon, nel 1948 nell’opera su cui ogni computer è basato oggi: «Gli aspetti semantici sono irrilevanti per l’ingegnere», una frase un po’ sibillina che però vuol dire una cosa molto semplice: i computer e l’intelligenza artificiale non conoscono il senso dell’informazione che elaborano.
Questa mancanza di senso è, dicevamo, il punto debole di GPT-3 e di WuDao 2.0; una debolezza non solo teorica, ma anche pratica. Il linguaggio che generano, per quanto sofisticato, spesso deriva in affermazione grammaticalmente perfette, ma surrealisticamente prive di senso.
D’altronde GPT-3 non è mai uscito nel mondo, non ha mai visto il colore di una rosa rossa (anche se ha memorizzato la relazione tra le parole “rosa” e “rosso”). L’approccio dei colossi informatici è quello di aumentare ulteriormente il numero di parametri, ma qualcuno comincia ad avere dei dubbi.
Come ha scritto un esperto di intelligenza artificiale, Gary Marcus, sul sito del MIT Technology Review, GPT-3 è un grande generatore di parole senza alcuna idea di quello che significano. Ma le genera veramente bene e, spesso, anche noi esseri umani mettiamo solo insieme frasi a effetto. E questa è la lezione che GPT-3 ci impartisce. Le macchine manipolano i simboli, ma non capiscono il loro senso. Noi, invece, siamo i padroni del significato delle cose.