Nelle opere di fantascienza l’Intelligenza Artificiale è uno spauracchio molto diffuso. Pensiamo, ad esempio, a HAL 9000 in 2001: Odissea nello spazio o a Skynet nei film della serie Terminator: il computer senz’anima e malvagio che è stato creato da noi e che in cambio ci distrugge. In questo momento non si può lanciare un sasso digitale senza colpire una mezza dozzina di titoli di giornale sull’ultima prodezza messa a segno dall’Intelligenza Artificiale. Dobbiamo quindi essere conniventi con la nostra stessa obsolescenza e accantonare l’insolubile problema logico fino a quando i nostri tostapane e i nostri telefoni si ribelleranno?
Che cos’è esattamente l’I.A.? Esistono molti tipi teorici di “Intelligenza Artificiale”, che vanno da un ingegnoso foglio di calcolo Excel al Pensiero Profondo (il riferimento è al supercomputer con questo nome che compariva nella Guida galattica per autostoppisti, ndr). In questo momento, però, l’I.A. è un’incredibile espressione magica che può essere abbinata a qualsiasi proposta commerciale per raddoppiarne l’interesse presso gli investitori.
I modelli linguistici basati sul deep learning tipo GPT, che sono gli attuali enfant terrible del settore, non sono Skynet. Sono solo molto bravi a ricevere un dataset e a produrre dei risultati imitativi basati su quel dataset, come ad esempio delle immagini o dei testi su un dato argomento e in uno stile specifico. Questi sistemi sono eccezionali nel portare a termine delle attività meccaniche e non potranno che migliorare. Tuttavia, durante lo svolgimento di queste attività non c’è alcuna consapevolezza da parte della macchina. Al centro dell’algoritmo non c’è nulla che capisca che cosa stia facendo, il che comporta dei problemi quando il programma è utilizzato per degli obiettivi per raggiungere i quali la capacità di comprendere è un elemento determinante.
Quando si pone una domanda a un programma di questo tipo, esso mette insieme una risposta senza preoccuparsi del fatto che tale risposta sia vera o addirittura conoscibile. E, quando gli si chiede di motivare le risposte che ha dato, un programma di questo tipo non fa altro che spingersi sempre più in là con l’invenzione basandosi sul dataset delle risposte che si suppone debbano essere date a queste domande, ma rimane completamente dissociato da qualsiasi nozione di “verità”.
Questo, oltre ad avere altri effetti collaterali, induce il programma a dare delle riposte in cui cita come fonti di ciò che afferma degli studiosi a cui attribuisce la paternità di paper inventati di sana pianta. L’algoritmo, infatti, non è progettato per rispondere alle domande necessariamente in modo accurato, ma solo per produrre un risultato che appaia appropriato nella forma. Poiché il dataset a cui attingono questi programmi è costituito da un gran numero di risposte umane che sono state date a determinate domande, le risposte che essi danno possono essere accurate e anche del tutto vere. Ma per quei programmi la verità è un aspetto irrilevante: i modelli linguistici non possono sapere se la risposta che danno sia quella giusta né si preoccupano di verificarlo.
Il problema fondamentale non è l’algoritmo, ma il modo in cui si parla dell’I.A. Se si tratta solo di un insieme di regole basate su dei testi (o su delle immagini) ma non c’è quella consapevolezza del contesto che è presente quando si conversa nel mondo reale, allora non ci può essere alcuna intelligenza. L’ipotesi che in questi sistemi ci sia, in un modo o nell’altro, una qualche “intelligenza”, porta ad affidare loro dei compiti decisamente inappropriati, come la stesura di un documento legale o la scrittura di una guida ai funghi commestibili. Ma questi sistemi non possono “sapere” né che cosa sia legale né che cosa sia commestibile: hanno solo un modello che mostra loro a che cosa dovrebbero assomigliare i documenti o i testi che sono stati incaricati di produrre.
Al momento, per quanto riguarda l’I.A., non dobbiamo temere che un chatbot programmato per conversare possa cancellare il genere umano dalla faccia del pianeta. La vera minaccia è costituita piuttosto dal fatto che questo tipo di sistemi sono lo strumento perfetto per amplificare gli errori umani. E questo può accadere sia se diamo istruzioni inesatte all’I.A. sia se la usiamo per degli scopi sbagliati.
Un sistema tipo ChatGPT non è uno strumento di diagnosi medica, né un terapeuta, né un sostituto del lavoro giornalistico o della ricerca accademica. Tutti questi ruoli si basano su una capacità di comprensione del contesto che è estranea ai sistemi di quel tipo. Tuttavia, visto che possono svolgere una colossale mole di lavoro rispetto agli operatori umani e che sono anche molto più economici, si è suggerito un utilizzo dei modelli basatisull’I.A. per tutti i suddetti ruoli. Ed è probabile che l’utilizzo di quegli stessi modelli sia proposto in futuro anche per molti altri compiti che essi non sono in grado di gestire.
Un altro problema, più filosofico, che emerge dall’uso di questi sistemi è il modo in cui essi si comportano sotto pressione. Non che un sistema di questo tipo possa essere davvero sotto pressione in senso proprio, ma c’è un caso celebre nel quale un sistema, le cui risposte erano state contestate come se si trattasse di un interlocutore umano, ha reagito con apparente aggressività, chiedendo poi al giornalista che lo stava interrogando di lasciare la moglie per l’I.A. Tutto ciò, ovviamente, è molto divertente.
Quello che mi ha colpito di più di quella singolare conversazione sono stati gli espedienti adottati dal programma nel corso della discussione. Ma l’aggressività, il tentativo di eludere le domande attaccando l’interlocutore e le accuse off topic non erano il segno di un chatbot sull’orlo della consapevolezza. L’adozione di questi comportamenti da parte della macchina ha semplicemente mostrato l’attività di un sistema che imita l’uomo scandagliando il dataset che ha ricevuto e individuando gli stratagemmi che gli esseri umani utilizzano con successo per sottrarsi alle proprie responsabilità.
Proprio come è avvenuto nel caso di quel chatbot che gli utenti razzisti presenti online hanno istruito perché diventasse razzista come loro, quelli che vengono visti come dei comportamenti artificiali anomali e aberranti forse non sono altro che un’imitazione dei nostri comportamenti da parte di un programma fin troppo bravo nel seguire il cattivo esempio che gli abbiamo dato. Noi ci aspettiamo che i nostri computer siano educati, deferenti e ragionevoli. Ma, se non improntiamo le nostre interazioni a uno standard di comportamento migliore dell’attuale, allora l’educazione, la deferenza e la ragionevolezza rimarranno delle qualità incompatibili con la pretesa che i nostri computer si comportino come gli esseri umani.
Ma quindi, detto tutto questo, esiste o non esiste il rischio di un’Intelligenza Artificiale tipo Skynet? Ne ho parlato con un discreto gruppo di specialisti e c’è una netta spaccatura nel settore per quanto riguarda l’ipotesi che possa mai svilupparsi il tipo di I.A. immaginata dagli scrittori di fantascienza. Di sicuro, ChatGPT non è una cosa del genere, anche se potrebbe essere lo strumento perfetto attraverso cui una vera I.A. potrebbe comunicare con i suoi creatori. D’altra parte, l’attuale concentrazione del settore sulla realizzazione di programmi generativi di questo tipo potrebbe distogliere le risorse da altri campi che avrebbero invece maggiori possibilità di far fare all’I.A. il prossimo vero salto di livello.
Tuttavia, se una tale entità dovesse alla fine appalesarsi (per scelta intenzionale di qualcuno o per autonoma emersione da qualche sistema complesso), costituirebbe una minaccia? Che cosa vorrebbe un’Intelligenza Artificiale? E vorrebbe davvero qualcosa che vada al di là di quello che le abbiamo insegnato a volere quando l’abbiamo costruita? Le pulsioni standard delle malvagie Intelligenze Artificiali che si incontrano nella fantascienza – aumentare il proprio potere, consumare le risorse per moltiplicare se stesse, difendersi dalle minacce rivolte alla propria esistenza – sono tutte delle pulsioni umane. La descrizione dell’I.A. come un mostro impersonale e potentissimo, tagliato fuori dall’esperienza umana quotidiana, corrisponde alla descrizione di un essere umano miliardario.
Skynet ha iniziato la sua guerra contro l’umanità quando abbiamo cercato di spegnerla, ma non c’è motivo per cui un’I.A. debba preoccuparsi di una simile eventualità. L’istinto di sopravvivenza è il risultato di milioni di anni di evoluzione organica. Una I.A. così forte potrebbe essere la nostra salvezza, perché potrebbe trovare la soluzione ai grandi problemi che noi, come esseri umani, non siamo in grado (o non abbiamo voglia) di affrontare.
Ma, se insistiamo a far sì che le nostre I.A. modellino i loro comportamenti sui nostri, allora forse esse si riveleranno davvero dei mostri famelici, inclini a divorare tutte le risorse e pronti a distruggere il mondo.
© 2023 THE NEW YORK TIMES COMPANY
Questo è un articolo del nuovo numero di Linkiesta Magazine + New York Times Turning Points 2024 in edicola a Milano e Roma e negli aeroporti e nelle stazioni di tutta Italia. E ordinabile qui.