Allucinazioni realiGli evidenti limiti dell’intelligenza artificiale generativa

Le IA non capiscono quello che dicono o producono. Si limitano a fare calcoli e previsioni riguardo un mondo di cui non hanno esperienza diretta. E per OpenAi non sarà facile mantenere a lungo gli alti costi di produzione

Unsplash

ChatGPT ha delirato per alcune ore. Agli utenti che digitavano richieste d’ogni tipo, il chatbot di OpenAI ha risposto con frasi senza senso e sconnesse. L’incidente è avvenuto pochi giorni dopo il trionfale annuncio di Sora, un servizio di generazione di video sulla base di input testuali, e ha sottolineato quanto il gap tra promessa e realtà sia ancora grande, in questo settore. Nel giustificare il problema tecnico di ChatGPT, l’azienda ha ricordato il funzionamento di questi sistemi, che sembrano operare per magia ma in realtà «generano risposte campionando casualmente parole sulla base in parte della probabilità [che hanno di comparire]. Il loro linguaggio è costituito da numeri» e, nel caso in questione, il bug riguardava «il modello con cui questi numeri vengono scelti».

È una spiegazione tecnica che, per quanto vaga, dice molto e aiuta soprattutto a comprendere come funziona un’IA generativa e quali limiti ha, al di là dell’hype. Certo, la generazione di testi e immagini è stupefacente e può avere applicazioni concrete ma i contenuti prodotti sono spesso sbagliati e inaffidabili, pieni di quelle che vengono definiti «allucinazioni», contengono errori fattuali ma sembrano corretti. Credibili. Lo ha capito a sue spese quell’avvocato newyorchese che si fece scrivere un parere legale da ChatGPT per poi scoprire che l’IA aveva inventato i precedenti legali che citava. O i gestori del concessionario il cui sito aveva un chatbot che è stato “convinto” da un utente a vendergli un’auto per un dollaro. 

Gli stessi video di Sora sono notevoli ma presentano anche forme umane e animali bizzarre e grottesche, con movimenti fluidi e fisicamente impossibili che non convincono granché. E proprio qui sta il cuore del problema: le IA non capiscono quello che dicono o generano. Cioè, non possono proprio farlo: non sanno come si muove il corpo umano né la natura umana delle nostre relazioni, si limitano a fare calcoli e previsioni riguardo un mondo – quello naturale e umano – di cui non hanno esperienza diretta. È per questo che i modelli linguistici come GPT-4 sono detti pappagalli stocastici”: come pappagalli parlano senza comprendere quel che dicono, e tutto quello che fanno si basa su calcoli probabilistici (o stocastici, appunto).

Di conseguenza, più si usano queste IA, più si applicano specie al mondo del lavoro, meno si rimane convinti delle loro applicazioni, al di fuori di qualche caso specifico. Lo si vede dai numeri: il traffico a ChatGPT è calato progressivamente negli ultimi otto mesi mentre OpenAI brucia soldi per mantenere in piedi un’operazione i cui costi sono ancora un mistero e che difficilmente potrà garantire profitto nel breve-medio termine. A fronte di questi problemi, il suo fondatore Sam Altman parla di Intelligenza artificiale forte (o AGI), ovvero una macchina in grado di comprendere tutto quello che un umano comprende, una frontiera tecnologica lontanissima di cui alcuni mettono in dubbio la possibilità. Come ha scritto il Financial Times, OpenAI è impegnata nella folle impresa di creare un’AGI, una sorta di dio in scatola, prima di finire i soldi. Non semplice. Il tutto, mentre l’interesse per il settore, per quanto ancora alto, pare stare scemando: secondo alcuni dati, di IA si parla meno nelle riunioni e nei report trimestrali delle aziende, ad esempio. Non è tutto: molti early adopter, secondo il Wall Street Journal, avrebbero difficoltà a capire a cosa servono davvero questi sistemi e mettono in discussione il loro prezzo.

A proposito di sostenibilità, il settore rimane al centro di un circolo vizioso che, come ha ammesso lo stesso Altman, non è possibile evitare senza un cambiamento profondo e rivoluzionario in grado di ridurre i suoi costi operativi. Secondo un report recente, OpenAI sarebbe costata cinquecentoquaranta milioni di dollari per funzionare nel 2023, un dato in crescita rispetto al 2022 e destinato ad aumentare con l’arrivo di nuovi utenti o lo sviluppo di tecnologie ancora più energivore (vedi Sora). 

Non è un caso che tutti i grandi accordi commerciali tra le principali aziende del settore – OpenAI e Anthropic – siano stati stretti da aziende gigantesche quali Microsoft (che ha investito nella prima), Google e Amazon (che hanno investito nella seconda). La sola Microsoft ha puntato dieci miliardi di dollari in OpenAI, è vero, ma gran parte di quei soldi era sottoforma di “crediti” per l’utilizzo di Azure, il potente servizio cloud del gruppo, che è proprio quello che serve per sviluppare, migliorare e far funzionare un business altrimenti insostenibile. Una tattica scelta anche da Amazon, che ha investito quattro miliardi di dollari in Anthropic ottenendo dall’azienda un «impegno a lungo tempo» con AWS, la divisione cloud del gruppo. In cambio, Microsoft ha ottenuto l’impossibile – rosicchiare quote di mercato cloud ad AWS – oltre che un aumento del trenta per cento delle entrate, a conferma del fatto che gli uniche a guadagnarci davvero con le IA, sono le aziende del Big Tech.

Non si interrompe un’emozione, figuriamoci la Soncini!

X

Linkiesta senza pubblicità, per gli iscritti a Linkiesta Club

Iscriviti a Linkiesta Club