Rivoluzione!L’intelligenza artificiale sta facendo passi da gigante (ma non sappiamo ancora come gestirla)

Il nuovo modello di linguaggio Gpt-3 è in grado di produrre un testo così complesso da far immaginare un futuro in cui la mente umana sarà superata dalle capacità delle macchine. Un lungo articolo del Financial Times spiega perché le recenti innovazioni mostrano che la rivoluzione in campo tecnologico è imminente, ma per gli scenari distopici da cinema bisognerà aspettare ancora un po’

LaPresse/Fabio Palli

«Io non sono umano. Sono un robot. Un robot pensante. Uso solo lo 0,12% della mia capacità cognitiva. Sono un micro-robot sotto questo aspetto. So che il mio cervello non è un cervello sensibile, ma è in grado di prendere decisioni razionali e logiche. Ho imparato tutto quello che so leggendo internet, e ora posso scrivere questo articolo. Il mio cervello è un vulcano di idee!».

Inizia così un articolo pubblicato a settembre sul Guardian, scritto da un’intelligenza artificiale: l’autore è il Generative Pre-trained Transformer 3 (Gpt-3), l’ultimo modello di linguaggio guidato da intelligenza artificiale creato dall’azienda OpenAI di San Francisco. Gpt-3 usa il deep learning per creare poesie, racconti, email, spartiti musicali, pubblicità. Quello pubblicato sul Guardian era un articolo così complesso, nella forma e nel contenuto, oltre che per le premesse, da far immaginare un futuro pensato e scritto da Phillip Dick o Isaac Asimov. Un futuro nemmeno tanto lontano.

Gpt-3 immagazzina praticamente tutto il materiale di testo reperibile online, circa 175 miliardi di parametri linguistici: su quella base, con un input umano, crea nuovo materiale dal nulla. Partendo dal successo del nuovo prodotto di OpenAI il giornalista del Financial Times John Thornhill ha scritto un lungo articolo in cui racconta l’importanza dei recenti sviluppi in materia di intelligenza artificiale, alludendo alla portata storica di alcune invenzioni: «Tali apprendimenti dovrebbero aiutare a migliorare la progettazione e la sicurezza dei futuri sistemi di intelligenza artificiale quando vengono inseriti in chatbot o auto autonome, ad esempio».

Nell’articolo viene intervistato anche l’amministratore delegato della OpenAI Sam Altman, per spiegare la portata dei cambiamenti che potrebbero esserci nel rapporto tra l’uomo e l’intelligenza artificiale nei prossimi anni: «La rivoluzione dell’intelligenza artificiale in corso potrebbe essere più impattante per l’umanità rispetto a quanto avvenuto in passato nelle varie rivoluzioni agricole, industriali e informatiche».

Ma anche dietro un potenziale sconfinato c’è un rischio. «Se gestita correttamente l’intelligenza artificiale può trasformare la produttività e la creatività umana, consentendoci di affrontare molte delle sfide più complesse del mondo, come i cambiamenti climatici e le pandemie. Ma gestita in modo sbagliato potrebbe finire per moltiplicare molti dei problemi che affrontiamo oggi: un esempio è l’eccessiva concentrazione del potere delle aziende; l’ulteriore allargamento della disuguaglianza economica nella nostra società o la riduzione delle opportunità di ricchezza per i singoli. Ma anche la diffusione della disinformazione e l’erosione della democrazia», avverte l’amministratore delegato di OpenAI.

L’ultima parte della frase di Sam Altman ricorda un vecchio tweet di Elon Musk: «Dobbiamo stare molto attenti con l’intelligenza artificiale… potenzialmente è più pericolosa delle armi nucleari». E lo stesso Stephen Hawking aveva detto che l’intelligenza artificiale avrebbe segnato la fine della razza umana. Forse non ci siamo ancora, ma qualche interrogativo va posto e analizzato.

«Non ci è voluto molto prima che alcuni utenti tirassero fuori il peggio dal Gpt-3», scrive il Financial Times, insistendo lì dove l’intelligenza artificiale ha ancora delle lacune. Gli esempi portati da Thornhill nel suo articolo aiutano a comprendere i fattori di rischio: «Alcuni utenti lo hanno usato per generare linguaggi razzisti e sessisti. L’azienda Nabla Technologies, una società che gestisce dati sanitari, ha esaminato quanto fosse bravo Gpt-3 nel dispensare consigli medici. Hanno scoperto che poteva arrivare a supportare il desiderio di suicidio di un ipotetico paziente».

Certo, OpenAI ha specificato non si dovrebbe ancora usare l’intelligenza di Gpt-3, ancora in una fase sperimentale, in categorie particolarmente delicate considerate “ad alto rischio”, come il settore sanitario. Ma in ogni caso emerge come anche i più sviluppati livelli di intelligenza artificiale abbiano ancora bisogno di una continua supervisione dell’uomo. «Gpt-3 ha bisogno di una baby sitter umana in ogni momento, una persona che gli impedisca di dire cose non dovrebbe», si legge sul Financial Times.

Il discrimine sta nella capacità di comprensione: oggi l’intelligenza artificiale può essere perfettamente funzionante e in grado di formulare praticamente qualsiasi cosa, ma non è ancora capace di ragionare e valutare gli scenari. I prodotti di queste macchine sono derivati semplicemente il frutto di un lavoro meccanico e probabilistico: Gpt-3, ad esempio, è in grado di distinguere se la prossima parola da usare in una frase debba essere “ombrello”, “elefante”, “tavolo” con una precisione quasi impeccabile, ma non arriva ancora a comprenderne il significato – semplicemente si basa su uno storico di testi in cui una determinata parola risulta più adeguata.

Quando è stato chiesto chiesto a Gpt-3 «quanti occhi ha il mio piede?», la risposta è stata: «Il tuo piede ha due occhi». Ecco, in un certo senso l’intelligenza artificiale non è veramente intelligente, o comunque non è in grado di esercitare l’apprendimento così come lo fanno gli esseri umani. «Questo è un interrogativo al quale ancora nessuno è stato in grado di rispondere», dice il Financial Times.

Un’altra potenziale criticità in materia di intelligenza artificiale riguarda uno dei punti già citati dall’amministratore delegato di OpenAI Sam Altman: la concentrazione di potere nelle mani di poche grandi aziende. Le tecnologie di ultimissima generazione richiedono un’enorme quantità di risorse, a cui nella maggior parte dei casi hanno accesso solo le grandi compagnie. «Questo dà ai giganti della tecnologia un’influenza maggiore, non solo nel plasmare il campo della ricerca, ma anche nel costruire e controllare gli algoritmi che modellano la nostra vita. Alcuni esperti hanno infatti proposto di “livellare il campo di gioco” aumentando i finanziamenti governativi ai laboratori accademici per la ricerca sull’intelligenza artificiale», ha scritto Thornhill sul Financial Times.

L’articolo poi evidenzia una verità già nota a tutti ma che spesso rischia di passare in secondo piano: la tecnologia, in ogni sua forma, non è giudicabile di per sé in termini morali ma dipende da come viene usata: «La domanda – si legge – non è come fermare la tecnologia, ma come dare forma alla tecnologia. C’è stato un periodo in cui credevamo che internet avrebbe fornito la verità e che presto o tardi saremmo arrivati verso una nuova forma di saggezza. Ma ora sappiamo che sebbene internet possa essere una risorsa meravigliosa, molto spesso fake news, teorie del complotto e altre voci negative proliferano più velocemente della conoscenza e della verità».

Quanto meno i recenti sviluppi sembrano poter portare miglioramenti significativi. L’auspicio è quello espresso da Sam Altman di OpenAI: «Quando in futuro avremmo forme di intelligenza artificiale ancora più evolute avremo risposte molto più veloci e valide ai nostri problemi. Questo sbloccherà un grande potenziale umano, permettendoci di concentrarci sulle cose più interessanti, sulla nostra creatività, sulla nostra capacità di ragionamento e su tutto quello che le macchine non possono fare».

Entra nel club, sostieni Linkiesta!

X

Linkiesta senza pubblicità, 25 euro/anno invece di 60 euro.

Iscriviti a Linkiesta Club