Sfide strategicheLe tensioni a OpenAI e lo sviluppo responsabile dell’intelligenza artificiale

Quel che sta accadendo all’azienda che ha lanciato ChatGpt da quando ha licenziato il suo Ceo Sam Altman, e poi a sorpresa riassunto, dimostra che questo settore sta già portando cambiamenti critici che plasmeranno il paesaggio economico e politico del mondo

Sam Altman, a sinistra, Ceo di OpenAI, con il Ceo di Microsoft Satya Nadella all'OpenAI DevDay | Associated Press/LaPresse

Un terremoto ha colpito OpenAI, la società che ha lanciato ChatGpt e iniziato la rivoluzione dell’intelligenza artificiale nella vita quotidiana: il suo Ceo, Sam Altman, venerdì scorso è stato brutalmente e inaspettatamente licenziato con una chiamata online dal suo consiglio di amministrazione. E ieri notte, altrettanto a sorpresa, è stato richiamato dopo giorni di tensioni.   

È un evento di cui si fa fatica a comprenderne le cause e le conseguenze, ma la cui portata non può essere sottostimata. Aver tentato di cambiare il vertice della società che più di ogni altra sta guidando il progresso dell’Intelligenza Artificiale nel mondo occidentale è qualcosa di più di un semplice avvicendamento aziendale. Introduciamo gli elementi principali.

Poco più di un anno fa, ChatGpt è diventato il motore di una rivoluzione tecnologica: i modelli linguistici di grandi dimensioni che sono in grado di catturare la conoscenza contenuta nel linguaggio umano e di utilizzarla per una quantità crescente di compiti che sembravano essere una prerogativa degli esseri umani (traduzioni, relazioni, pianificazioni e tantissime altre cose). Nel giro di pochi mesi ChatGpt ha raggiunto (senza alcuna attività di marketing) oltre cento milioni di utenti in continua crescita e il valore di mercato di OpenAI è salito da diverse decine di milioni di dollari a circa ottanta miliardi (ultima valutazione).

È chiaro che licenziare Sam Altman, la persona che ha realizzato tutto questo, è inconcepibile e il fatto che sia avvenuto e poi ci abbiano ripensato deve fare riflettere sul fatto che oggi l’Intelligenza Artificiale non è soltanto una tecnologia, ma qualcosa che ha rilevanza strategica, politica ed economica. Entriamo nel dettaglio dei fatti recenti riassumendoli in una serie di punti chiave.

Primo punto. OpenAI è stata fondata nel 2015 come un’organizzazione no-profit dedicata all’intelligenza generale artificiale (Agi) benefica, si è distaccata dai valori tipici dell’industria tecnologica, enfatizzando la responsabilità anziché la rapida scalata e il profitto. Questa enfasi non ha soltanto l’obiettivo di dare un volto umano a una società informativa, ma è legato alla portata strategica che l’Intelligenza Artificiale sembra avere. Trattandosi di tecnologie che hanno un impatto incalcolabile sulla nostra società, possiamo lasciarle gestire soltanto sulla base del profitto o, come nel caso dell’energia nucleare, altri criteri di valutazioni devono essere introdotti? La natura responsabile di OpenAI è stata parzialmente messa in discussione quando, nel 2019, la società ha introdotto una sussidiaria a profitto limitato, bilanciando gli obiettivi commerciali con la sua missione originale. Quindi due anime diverse.

Secondo punto. Il rilascio di ChatGpt nell’ottobre del 2022 ha intensificato il conflitto interno tra due fazioni all’interno di OpenAI: una che spinge per una rapida commercializzazione e l’ottimizzazione dei profitti e l’altra preoccupata dai rischi esistenziali dell’IA. Questa tensione è stata esacerbata dalla pressione di competere con vari concorrenti come Anthropic, un rivale formato da ex dipendenti di OpenAI, come Grok (Elon Musk) o Bard (Google). Di conseguenza, OpenAI ha accelerato il rilascio di ChatGpt e successivamente di Gpt-4 e, da qualche settimana, di Gpt-Turbo, mettendo sotto pressione le sue risorse e i protocolli di sicurezza.

Terzo punto. Il coinvolgimento di Microsoft il cui Ceo, Sayta Nadella, non ha fatto mistero di voler legare le sorti della sua azienda con quelle di ChatGpt, entrando come socio di minoranza al quarantanove per cento di OpenAI. Tutti i maggiori prodotti della Microsoft – da Windows a Office, da Bing a VisualStudio – sono in corsa per essere rapidamente modificati in modo da incorporare ChatGpt o varie forme di Intelligenza Artificiale. Nadella in persona è stato presente all’ultima presentazione di OpenAI e ha parlato insieme a Sam Altman degli obiettivi comuni delle due società.

Quarto punto. L’ultima versione di Gpt, ovvero Gpt-Turbo che è stato presentato una settimana fa, promette diverse modifiche e aggiunte significative. Oltre ai prevedibili aumenti di prestazioni, Gpt-Turbo promette di creare un mercato di versioni personalizzate (una sorta di Gpt Store) che potranno essere sviluppate dagli utenti sulla base delle loro competenze individuali. Oltre a porre il problema etico se sia il caso di permettere a ChatGpt di espandersi illimitatamente sul know-how di persone e aziende, questa mossa ha, di fatto, istantaneamente mandato fuori mercato molte soluzioni informatiche (come Poe, un servizio di intelligenza artificiale di Quora).

Quinto e ultimo punto. L’incombente e, per certi versi, angosciante promessa di realizzare l’Agi. Se ChatGpt è finora una stupenda realizzazione in grado di imitare e riprodurre molti compiti che, fino a ieri, richiedevano esseri umani, non è ancora in grado di muoversi e crescere in totale autonomia, come appunto un essere umano. È possibile creare una intelligenza comparabile in tutto a quella umana (anche per quanto riguarda aspetti come generalità, autonomia e creatività)? Questa possibilità (detta Artificial General Intelligence o Agi) è un gradino sopra tutto quello che ChatGpt oggi è in grado di fare. Qualcuno sospetta che si potrebbe arrivare a questo traguardo senza le adeguate misure di sicurezza e che potrebbe avere conseguenze economiche e sociali impreviste. In un’intervista concessa due giorni prima del finanziamento, Sam Altman ha dichiarato in modo misterioso di essersi trovato «nella stanza dove per la prima volta è stato sollevato il velo di ignoranza che impediva di progredire verso una intelligenza umana comparabile a quella umana». 

Tutti insieme questi punti fanno capire come la posizione di Altman non sia soltanto un fatto aziendale, quanto il punto nevralgico dove interessi e forze si sono incontrati e scontrati. L’evento riflette la lotta più ampia all’interno di OpenAI tra successo commerciale e sviluppo responsabile dell’Intelligenza Artificiale.

In particolare, dentro OpenAI, le due anime in tensione si sono incarnate in persone diverse. Da un lato, l’anima dell’accelerazione tecnologica ha trovato i suoi sostenitori in Sam Altman (e il suo fedelissimo Greg Brockman) e negli investitori esterni (in particolare Satya Nadella e la Microsoft). Dall’altro, l’anima della sicurezza e di una maggiore cautela era soprattutto difeso da Ilya Sutskever e Adam D’Angelo (mosso anche dalla preoccupazione per la sopravvivenza della sua società Quora). 

In realtà, Altman ha sempre sostenuto che anche un approccio più orientato verso la commercializzazione fosse un modo per controllare l’introduzione dell’Intelligenza Artificiale nella società; grazie ai maggiori profitti e alla posizione leader si sarebbe potuto più facilmente avere i mezzi per finanziare la sicurezza e gli sforzi di allineamento. 

Nello stesso tempo, però il direttore della ricerca, Ilya Sutskever, si è sempre più allineato con la fazione del rischio esistenziale, sottolineando l’urgenza delle misure di sicurezza nello sviluppo dell’Intelligenza Artificiale. Questa divisione ideologica si estendeva alla direzione complessiva dell’azienda, con alcuni dipendenti che si sentivano a disagio per il ritmo rapido dei lanci dei prodotti e i loro potenziali rischi.

Sappiamo quello che è successo, almeno finora. La fazione di Sutskever che controlla il board ha licenziato, con una mossa a sorpresa, Sam Altman. A questo punto un primo gruppo di fedelissimi del decaduto Ceo lo ha seguito: Greg Brockman, Jakub Pachocki, Aleksander Madry e Szymon Sidor. Le motivazioni indicate sono rimaste vaghe e, di fatto, nessuno ha compreso le vere motivazioni. Nel giro di quarantotto ore altri eventi piuttosto stupefacenti si sono succeduti. 

Prima di ogni altro, con grande prontezza, Nadella si è dichiarato pronto ad assumere seduta stante Sam Altman creando per lui una divisione della Microsoft dedicata allo sviluppo di un nuovo Gpt, e insieme a lui tutti i dipendenti della OpenAI che volessero seguirlo. A questo annuncio i dipendenti di OpenAI hanno reagito pubblicando una lettera aperta al loro board dichiarando di essere pronti a licenziarsi e seguire Altman qualora non venisse ripreso nella loro società. E non si è trattato di un piccolo gruppo, ma di oltre settecentotrenta dipendenti sui settecentocinquanta totali della società (più del novantacinque per cento). Un colpo di scena inspiegabile è la presenza tra i firmatari proprio di Sutskever che molti consideravano come il maggiore responsabile del licenziamento.

E, infine, martedì sera a San Francisco, Altman è stato riassunto come Ceo di OpenAI.

Le domande sono molte e non tutte troveranno risposta nei prossimi giorni. I tumultuosi avvicendamenti ai vertici della OpenAI sono cruciali come potevano esserlo, nel nostro passato storico, battaglie e matrimoni reali: cambiamenti critici che definiscono i colli di bottiglia di potere che determineranno gli sviluppi futuri e plasmeranno il paesaggio economico e politico del mondo. In particolare, dovrebbe essere chiaro che l’intelligenza artificiale oggi non è solo un’impresa commerciale, ma è la chiave dei cambiamenti molto rapidi che definiranno il modo in cui lavoreremo e il valore di quello che daremo. Si tratta di scenari e scelte strategico-politiche che riguarderanno tutti… anche quelli che credono si tratti soltanto di tecnologie informatiche da poter regolare con un tratto di penna.

Le newsletter
de Linkiesta

X

Un altro formidabile modo di approfondire l’attualità politica, economica, culturale italiana e internazionale.

Iscriviti alle newsletter