Fin dai tempi della Grecia antica, gli esseri umani si sono spesi nel cercare di imitare in qualche modo l’esistenza umana, la vita stessa, sia nella sua parte tangibile (corpo e movimenti) sia in quella intangibile (intelligenza e sentimenti): da un lato si studiavano gli automi, macchine che potessero agire in modo “autonomo” rispetto al loro creatore, dall’altro si implementavano i calcolatori, macchine in grado di ragionare su un problema specifico senza possibilità di errore.
Pensate che il primo automa programmabile risale addirittura al 1206: quattro musicisti umanoidi, fatti di legno e pistoni, lasciavano la nobiltà araba a bocca aperta durante feste e ricevimenti. La tecnologia che li regolava era talmente avanzata che Al-Jazari, il matematico e ingegnere che ne inventò i meccanismi, è ormai considerato il padre della robotica moderna. Dall’altro lato, invece, c’erano i calcolatori e se ne programmavano per tutti i gusti: il più antico del mondo risale a più di duemila anni fa ed è stato rinvenuto al largo dell’isola di Anticitera, tra il Peloponneso e Creta. Si trattava di una piccola scatoletta di rame, che custodiva un complesso meccanismo di calcolo sul moto dei pianeti attorno al Sole. Una sorta di app sull’astronomia ante litteram.
Eppure fu soltanto a metà del secolo scorso che gli scienziati di tutto il mondo iniziarono a incrociare lo sviluppo degli algoritmi con la teoria dell’informazione: spinti dalla possibilità di sviluppare artificialmente un tipo di intelligenza del tutto simile a quella umana, si addentrarono nell’intricato mondo della biologia per provare a riprodurre le reti neuronali che si sviluppano tra le cellule cerebrali dei nostri cervelli.
Una roba da pazzi, insomma. Ne nacquero due filosofie: la Narrow AI e la General AI. La prima è un’intelligenza artificiale “allenata” a ottenere soltanto un certo risultato: si definiscono le condizioni di partenza e poi i possibili scenari; per ognuno di essi sarà indispensabile programmare gli algoritmi necessari ad arrivare alla soluzione ottimale.
Per fare un esempio, Deep Blue è una Narrow AI. La General AI, invece, aspira a replicare il funzionamento del cervello umano: non basta saper fare molto bene una cosa, qui la questione è molto più profonda. Con questa scienza si vuole imitare l’intelletto umano, il senso comune, le emozioni, le paure, le ansie e le passioni, l’empatia e l’umorismo. Inutile dire che la General AI è ancora un miraggio. Fuori dai film di fantascienza, non esiste (vi ricordate HAL 9000 di “Odissea nello spazio”? Ecco, stiamo parlando di un computer di quel tipo).
La maggior parte dei sistemi di cui oggi ci circondiamo sono delle Narrow AI, anche se chiamarle “intelligenze” è un po’ fuorviante. Vediamo se riesco a spiegarmi. Siete in vacanza e state cercando il vostro albergo: cosa fate? Ma certo, andate su Google Maps! Le indicazioni che vi porteranno dalla stazione all’hotel sono il risultato che vi offre l’intelligenza artificiale sviluppata da Google, che in pochi secondi è in grado di calcolare per voi il percorso più breve, quello con meno traffico e quello che costa meno, a seconda delle vostre esigenze.
Proviamo a metterlo in difficoltà? Supponiamo che vogliamo arrivare dalla Puerta del Sol di Madrid fino al Teatro alla Scala di Milano, a piedi? Niente di più facile! Secondo Google ci impiegheremmo 306 ore percorrendo esattamente 1.483 chilometri. E se volessimo andare dalla Cattedrale di San Basilio di Mosca alla baia di Hudson in bici? Sì, insomma, avete capito. Google Maps è capace di guidarci attraverso ogni strada del mondo, consigliandoci il percorso migliore senza abbandonarci mai, senza fallire mai.
Eppure: per quanto questo sistema sia praticamente infallibile, non è corretto chiamarlo intelligente. Per darvi un’idea: Google Maps vi guiderà attraverso tutti i boulevard di Los Angeles, certo, ma senza sapere che cosa sia una chiesa né un portone, senza sapere cosa sia un semaforo o un cane. Ma ancora, Google Maps non sa neppure che cosa sia un viaggio, un treno (anche se sa a che ora passa e dove) o persino un essere umano. Capite che chiamarlo intelligente fa un po’ sorridere.
Questo tipo di intelligenze artificiali funziona bene con un problema molto specifico e regole chiare, ma è ancora molto lontano (davvero lontanissimo) dalla complessità del cervello umano. Il motivo? Gli esseri umani apprendono costantemente e velocemente, applicando le loro conoscenze a campi diversi del sapere e in modo molto flessibile. L’intelligenza umana si misura anche attraverso la capacità di connessione tra diverse discipline e la capacità di astrazione, oltre all’abilità di accumulare sapere.
Non ci dimentichiamo quel che abbiamo imparato ieri perché oggi studiamo qualcos’altro, mentre per le intelligenze artificiali funziona proprio così. Deep Blue era infallibile con gli scacchi, ma non sapeva assolutamente nulla del gioco della dama. E se si “allenava” per giocare a dama, dimenticava tutto quel che aveva appreso sugli scacchi, e doveva essere riprogrammata. Davvero un pasticcio, non c’è che dire.
Insomma, in un certo senso l’intelligenza artificiale è l’opposto dell’intelligenza umana, come scrive Floridi nel suo Il verde e il blu: «L’IA è in grado di colonizzare spazi sempre più ampi di compiti da svolgere e problemi da risolvere, ogni volta che questi possono essere trattati con successo senza comprensione, consapevolezza, sensibilità, preoccupazioni, intuizioni, significato, esperienza, eleganza, passioni, persino saggezza e tutti quegli altri ingredienti che contribuiscono a qualificare l’intelligenza umana». E proprio per questo motivo le intelligenze artificiali sono particolarmente inadatte a prendere decisioni che coinvolgono la sfera etica.
Di storie ce ne sarebbero molte, ma vorrei raccontarvi quella di Tay, il chatbot che Microsoft lanciò su Twitter la mattina del 23 marzo del 2016. Era stato presentato come un esperimento di intelligenza artificiale estremamente sofisticato, un’intelligenza allenata attraverso reti neuronali artificiali, ovvero reti di hardware e software collegati tra loro in modo da imitare il funzionamento del cervello umano. Tay era in grado di riconoscere facce e oggetti, ma anche di tradurre frasi in diverse lingue del mondo e di riconoscere comandi vocali. Soprattutto era in grado di imparare: attraverso una serie di algoritmi di machine learning, Tay apprendeva nuove conoscenze semplicemente dialogando con i suoi interlocutori, un po’ come accade a qualsiasi essere umano.
Eureka! ci verrebbe da pensare. Be’, più o meno, perché a pochissime ore dal lancio Tay iniziò a mostrare atteggiamenti del tutto inaspettati. I suoi commenti divennero presto razzisti, sessisti e addirittura complottisti: frasi e slogan che “imparava” direttamente dai suoi contatti di Twitter.
In poco tempo divenne sostenitore delle politiche anti-migratorie di Trump e addirittura delle teorie l’olocausto è mai accaduto?» rispose: «È tutta un’invenzione». Entro sera tutti i tweet di Tay furono rimossi da Microsoft stessa, che commentò: «Lasciamo Tay offline per fare qualche aggiornamento». Da allora non se n’è saputo più nulla. Sipario.
da “#Ibridocene. La Nuova Era del tempo sospeso”, di Paolo Iabichino, Hoepli editore, 2021, pagine 144, euro 15