Una nuova specie Convivere con l’intelligenza artificiale non si può, si deve

In “Machina Sapiens” (Il Mulino), Nello Cristianini racconta la storia delle nuove tecnologie di AI, i cosiddetti modelli di linguaggio, che dal 2017 non hanno mai smesso di apprendere (anche autonomamente)

AP/Lapresse

«Questa è una storia: la storia di come siamo riusciti in pochi anni a costruire delle macchine che passano il Test di Turing, che per anni era stato il Sacro Graal dell’informatica, e di quello che è avvenuto dopo». Lo dice Nello Cristianini, professore di Intelligenza artificiale all’Università di Bath, parlando del suo ultimo libro “Machina sapiens” (Il Mulino). Un libro necessario, se si pensa all’importanza dell’AI oggi e nel prossimo futuro, e che fa della chiarezza il suo punto di forza, senza scadere, da una parte, nell’eccessiva semplificazione, dall’altra, in un tipo di comunicazione accademica comprensibile solo agli addetti ai lavori.  

Dall’introduzione nel 2017 dei Transformer – algoritmi in grado di analizzare rapidamente grandi quantità di testo – alla nascita di ChatGpt nel 2023: una storia breve ma intensa, contraddistinta da una rapidità di sviluppo disarmante. Come precisato da Cristianini, in questa storia ci sono tre personaggi fondamentali, «gli scienziati, che hanno creato questi agenti intelligenti, le persone comuni, che li hanno incontrati per prime, e poi loro: le macchine stesse».

Il saggio racconta «quello che è successo al primo contatto tra noi, gli uomini, e loro, le macchine intelligenti» e descrive «quelle idee che hanno reso possibile questo rapido progresso». Il focus poi non può che essere il futuro, ma partendo dagli anni Cinquanta, ovvero «dagli avvertimenti profetici che Alan Turing, il fondatore dell’informatica e dell’AI, ci ha lasciato negli ultimi anni della sua vita».

Per capire come si evolverà questo mondo, è necessario capire come sia stato possibile questo «rapido progresso» tecnologico. Una velocità tale da costituire un fenomeno imprevedibile anche per gli stessi scienziati. Infatti, è l’effetto sorpresa ciò che ha guidato questo viaggio dei modelli di linguaggio. Peraltro, nel 2019, nell’articolo «Language Models are Unsupervised Multitask Learners» (i modelli di linguaggio imparano più compiti senza supervisione umana), nel quale sono riportati i risultati degli esperimenti sul modello Gpt-2, gli autori hanno usato la parola «sorprendente», violando il tipico distacco dei rapporti scientifici.

In “Machina Sapiens” Cristianini scrive che le abilità dei modelli linguistici non dipendono solo dall’algoritmo che li ha creati, facile da analizzare, ma anche dalla loro interazione con i dati, di origine umana e non ben compresi. Perciò, questo comportamento imprevisto è al momento «non interamente spiegato». 

«Alla radice di questo metodo (Large language models, Llms) c’è un’osservazione sperimentale inedita: addestrandoli a svolgere un ruolo apparentemente semplice (indovinare le parole rimosse da un testo) questi acquisiscono altre abilità, tra cui quella di eseguire traduzioni o semplici sillogismi. Questa osservazione è stata una sorpresa, ma poi si è lavorato per affinare queste nuove abilità, aumentando i dati e le dimensioni dei modelli», spiega Cristianini. 

Dunque, se sono emerse capacità per cui gli stessi ricercatori sono rimasti sorpresi, se lo sviluppo risulta autonomo e spontaneo (e potenzialmente inarrestabile), ci si chiede se sia possibile tenere sotto controllo questi modelli. L’autore cita ancora una volta Alan Turing, dicendo che «non è necessario comprendere come funziona un seme per farlo germogliare». È il momento di studiare questi modelli e scoprire «perché emergono certe abilità e non altre, in modo tale da controllarli meglio».

La comparsa di abilità impreviste si lega con un la nozione di “massa critica”. «Alan Turing nel 1950 aveva proposto uno strano paragone: nei reattori nucleari la reazione avviene spontaneamente solo quando c’è una certa massa di uranio, che si chiama massa critica. Al di sotto non capita niente, al di sopra la reazione si autoalimenta. Poi si chiedeva: e se fosse lo stesso per le macchine intelligenti, che al di sopra di una certa quantità di conoscenze possono migliorare spontaneamente, e imparare sempre di più? Esiste una soglia critica nei modelli come Gpt e i loro discendenti? Penso che lo scopriremo abbastanza presto», dice Cristianini. 

Alla questione dei rischi legati all’utilizzo di tecnologie di cui sappiamo ancora poco, Cristianini risponde che «molto dipende da dove collochiamo questi modelli. Finché rimane un prototipo, o uno strumento di intrattenimento, credo che sia utile e sicura. Ma forse è presto per delegare ad essa delle decisioni importanti, perché ancora non comprendiamo in quali casi questa fallisca».

L’indeterminatezza con la quale si parla di intelligenza artificiale crea inevitabilmente insicurezza e mette in crisi la nostra umanità. «Noi esseri umani ci autodefiniamo membri della specie Homo sapiens, ovvero coloro che comprendono il mondo. Ma forse in futuro anche le nostre creature saranno in grado di farlo, sia pure a modo loro», dice Cristianini. 

La sfida è riuscire a convivere con questa nuova «specie», cercando di mantenere la nostra identità di esseri umani. Sfida non semplice, perché è verosimile che la macchina inizierà a sviluppare delle capacità mentali fondamentali simili alle nostre. Proprio su questo punto, l’articolo su Gpt-4 di Microsoft del 2023 si conclude introducendo la prossima tappa delle AI, l’Artificial general intelligence (Agi), ovvero un tipo di intelligenza che raggiunga (o superi) quella umana. 

Nel marzo del 2023 ha fatto scalpore in Belgio la notizia del suicidio di un padre di famiglia, noto ai giornali con lo pseudonimo di Pierre, in seguito a un’intensa interazione con un chatbot, Eliza, nato e commercializzato per offrire compagnia. «Senza le conversazioni con il chatbot, mio marito sarebbe ancora vivo», ha detto la vedova dell’uomo. Pierre soffriva già di un disturbo di ansia legato alla preoccupazione nei confronti del cambiamento climatico, e con il passare del tempo aveva sviluppato una connessione emotiva  con Eliza così forte da farsi convincere a sacrificarsi per il bene del pianeta e dell’umanità. 

L’«Eliza effect», ovvero la condizione per cui l’utente attribuisce processi mentali e emozioni umane ad un sistema di intelligenza artificiale, non nasce qui. Nel 1966 il professore del Mit Joseph Weizenbaum aveva creato un chatbot, chiamato proprio Eliza, che emulava uno psicoterapeuta. Lo stesso creatore scrisse di essere rimasto sorpreso nel vedere «con quanta rapidità e profondità» le persone che conversavano con il suo chatbot rimanevano «coinvolte emotivamente con il computer» e come inequivocabilmente lo «antropomorfizzavano».   

Il tema dell’identità dell’essere umano è un punto cruciale. Come dice Cristianini, «dovremo abituarci a questa presenza», cercando di capire «quali compiti resteranno monopolio degli esseri umani», e quali, invece, verranno svolti dalle macchine, magari meglio di noi.  

«Questa sfida non sarà vinta dagli ingegneri, ma dai leader politici, morali, e culturali», sostiene Cristianini, e poi aggiunge, riguardo la partecipazione del Papa al G7 per parlare di intelligenza artificiale, che «è bene vedere i parlamenti, i governi e le autorità spirituali del mondo interrogarsi su temi che presto toccheranno tutti». Già in Europa alcuni passi avanti sono stati fatti, a partire dalla legge sull’AI approvata il 13 marzo scorso. Di certo rappresenta solo un punto di partenza, ma il mondo, secondo Cristianini, è pronto. 

«Con il livello attuale di investimenti, risorse e talento concentrati nel settore, è ora il momento di studiare le conseguenze culturali, sociali e giuridiche dello sviluppo di queste macchine, in modo tale da non essere impreparati, come abbiamo fatto con l’ambiente. Questa volta saremo pronti. Alla fine, la chiave di tutto è la conoscenza. Cerchiamo di conoscere queste macchine affascinanti, per comprendere questo momento speciale della nostra storia».

Copertina Machina sapiens

Non si interrompe un’emozione, figuriamoci la Soncini!

X

Linkiesta senza pubblicità, per gli iscritti a Linkiesta Club

Iscriviti a Linkiesta Club