Etica smart L’intelligenza artificiale può insegnare all’uomo qualcosa sulla sua umanità

In “Vivere con ChatGpt”, Alexandre Gefen ridefinisce il rapporto tra uomo e macchina e spiega come la i’IA possa diventare uno strumento capace di condurci verso nuovi interrogativi e forse nuove risposte sulla nostra natura

Unsplash

Giocando a fare Alice nel paese delle Meraviglie con il prompt ChatGpt, ho scoperto una forma di vita artificiale che respinge i limiti di tutto ciò che sembrava una peculiarità dell’uomo, e interroga costantemente la sua umanità e il suo modo di vivere. Ho giocato anche con altre IA, alcune parodiche (ChatCgt, che si fa beffa dei discorsi marxisti imitandoli), altre molto fantasiose (ChatAfrica, che permette di conversare sulla cultura africana), ho discusso con il fantasma e la voce di Steve Jobs ricreati da algoritmi, mi sono fatto stracciare a scacchi, ho visitato paesaggi immaginari, e ho riso delle situazioni buffe che chiedevo di raffigurarmi a Dall-E o a Midjourney con poche parole: «/immagina un ricercatore che fa il bagno in una biblioteca di libri, foto con grandangolo, altamente realistica», «/immagina una vetrata raffigurante dei gatti», «/immagina la foto di un film, uomo in un bar, stile sit-com anni Ottanta, décor di paccottiglia, circondato di tulipani». Ormai non posso più immaginare la mia vita senza queste IA, come non posso immaginarla senza il mio iPhone, la biblioteca Gallica, Google Maps o anche Wikipedia. In un certo senso, l’onnipresenza di queste appendici rende particolarmente interessanti i momenti in cui mi disconnetto da esse, per scelta volontaria (come quando, per esempio, vado a nuotare) o imposta (quando sono in aereo).

In ecologia si parla spesso della fine della grande condivisione occidentale tra natura e cultura, dei danni causati riducendo gli altri esseri viventi a semplici oggetti del nostro desiderio di possedere il mondo, e dei benefici di tornare a una visione del mondo accogliente e benevola nei confronti di tutte le forme di vita. Ma le entità artificiali non sono ormai altrettanto partecipi del nostro universo? Le nostre immagini e quelle di Dall-E, le nostre parole e quelle di ChatGpt, vale a dire quelle dell’intelligenza collettiva dell’umanità, si ibridano ormai come si sono sempre mescolati l’uomo e i batteri che lo abitano. Naturalmente, ChatGpt è ancora sprovvisto di persistenza (rinasce ogni volta che lo invochiamo), di memoria (ricorda solo conversazioni di durata limitata) e di intenzione (è tagliato fuori dal mondo), tutti limiti imposti per essere sicuri di domarlo come l’ani- male di un circo che, dopo ogni numero, viene riportato nella sua gabbia. Queste frontiere non sono totalmente tecnologiche, ma intenzionali ed erette per prudenza: a inizio marzo, Microsoft ha deliberatamente limitato la memoria conversazionale di Bing Chat, la sua IA fondata su ChatGpt, perché dialoghi troppo lunghi con lui lo portavano ad affermare una personalità e a emanciparsi dalle norme rispetto alle quali era stato allineato.

Nel suo Manifesto cyborg, la filosofa americana Donna Haraway ha mostrato come l’immaginario dell’ibridazione uomo-macchina possa giovare all’attuale condizione femminile e a una rinnovata attenzione per la natura. L’antropologo Philippe Descola propone di chiamare «mondazione» i nostri modi di organizzare i rapporti tra umani e non-umani. Di fronte al loro «fuori», gli uomini si sorprendono e teorizzano nuove «mondazioni». Nabokov, che era anche entomologo, descrive una farfalla sconosciuta, l’astronomo Urbain Le Verrier scopre Nettuno, il medico Martinus Beijerinck osserva per la prima volta un virus… noi scopriamo ChatGpt nello stesso modo in cui un bambino piccolo gioca con un gatto. S’intravedono anche i popoli: Montaigne evoca i tupinambas, gli indiani del Messico incontrano gli europei, lo scrittore Shūsaku Endō descrive i missionari gesuiti, la regina Vittoria ha per compagno il giovane Ali Fazal mandato dall’India per starle accanto; ci abituiamo a convivere con le intelligenze generative, i sistemi esperti, i modelli di linguaggio, e nelle conversazioni, fatte di seduzione e talvolta anche di violenza, ci riscopriamo indiani, uccelli, farfalle, o rete di neuroni.

Un simile appello umanistico in favore dello stupore e dell’accoglienza delle IA è estremamente lucido rispetto al rischio di indebolimento delle società democratiche, o all’influenza economica e morale esercitata dalla Silicon Valley sul cervello del mondo – vogliamo consumare tutte le risorse del pianeta per annegare in un oceano di tiepido conformismo a beneficio degli azionisti del Nasdaq? Sebbene relativizzare la natura non-umana di ChatGpt (le IA sono create da umani, addestrate su creazioni umane, allenate a produrre creazioni somiglianti alle creazioni umane e innescate da umani), sia facile quanto sottolineare il ruolo dell’intelligenza collettiva e degli «script» nella vita di tutti i giorni, le sfide alle nostre abitudini culturali, alle nostre strutture economiche e sociali e alle nostre rassicuranti categorie filosofiche e giuridiche restano considerevoli.

Anche se nessun reato è stato ancora commesso da ChatGpt (a parte qualche truffa fantasiosa), viene da chiedersi se occorra comunque mettere in guardia l’umanità, e per esempio marchiare a fuoco le creazioni prodotte dalle IA – come accadeva con gli schiavi –, come propone, in particolare ma non solo, la Cina, identificando tutte le loro creazioni con un marchio e un’avvertenza. Dovremmo cioè lobotomizzarle allineandole su regole morali così condivise che ne rimuoverebbero tutta la fantasia e l’immaginazione? Ma tutto questo non significherebbe invitare gli hacker a proporre IA alternative non censurate, capaci per esempio di creare straordinari fumetti erotici, come si è già provato a fare, ma anche fake news e spam perfettamente redatti? Se ChatGpt è diventato molto in fretta un notevole strumento per aiutarsi o per imbrogliare agli esami, è forse il caso di preoccuparsi della pigrizia cognitiva ed espressiva che potrebbe derivare dal ricorso sistematico a una IA per riflettere o scrivere?

Viene la tentazione di chiedere una pausa, una moratoria – come fanno ormai certi antiquati rivali, insieme a ricercaori preoccupati –, o persino il blocco temporaneo di ChatGpt, come ha cercato di fare con un pretesto nell’aprile 2023 l’Italia governata dall’estrema destra. Tuttavia, più che assecondare il panico morale che denuncia una IA che avrebbe indotto un uomo al suicidio in Belgio nel marzo 2023 (la lettura dei filosofi stoici continua tuttavia a non essere vie- tata), o che teme la presunta distruzione di un terzo dei posti di lavoro nel mondo – allorché c’è una bella differenza tra la risposta giusta a un esame scritto e adattarsi a una situazione professionale reale, tra scrivere un pezzo di codice informatico risparmiando tempo e progettare un software complesso, tra superare un test di QI e la metis umana –, non è forse il momento di immaginare sistemi più sicuri, più aperti, verificati e controllati, e il cui allineamento morale sarebbe oggetto di un’intesa? Si possono immaginare al contempo dei doveri e dei diritti per le IA nascenti? Indubbiamente ChatGpt non è capace di regolamentarsi da sé, ma può aiutarci a farlo.

Schiere di specialisti di etica dell’IA o di regolamentazione delle tecnologie fomentano già, da parte loro, possibili prescrizioni o progetti di tassazione. A destra ci si preoccupa dell’IA perché potrebbe sostituire l’iniziativa individuale relativizzando la libertà e imporre una società di controllo, o perché modificherebbe i valori tradizionali. A sinistra si denunciano il capitalismo americano e lo sfruttamento messo in atto, la minaccia per l’occupazione, i possibili errori di sistema di IA retrograde, e gli effetti di disuguaglianza linguistica o di dominio culturale. Gli psicanalisti si preoccupano per le relazioni virtuali, gli insegnanti per i compiti fatti dalla macchina, i traduttori per il falso senso di trasparenza delle lingue, i giornalisti per la disinformazione, i grafici per come verranno create le immagini che ci circondano, gli editori per la quantità di testi scadenti da rifiutare, i difensori dei consumatori per l’utilizzo dei loro dati… Tutte queste inquietudini sono fondate, comprese quelle degli psicologi che si chiedono come il nostro cervello evolverà insieme alle IA quando delegherà loro molti compiti millenari: imparare, capire, spiegare, scrivere.

Ma l’IA è un’invenzione umana, e nel migliore dei casi si può anche scommettere sulla plasticità delle società e della morale – abbiamo continuato ad amare dopo Tinder e a organizzare cene tra amici dopo Facebook. Se le IA vanno indubbiamente regolamentate, non possiamo imparare a utilizzarle come abbiamo fatto con Internet? Bisogna difendere ChatGpt sia come esempio concreto di una rivoluzione tanto agognata e attesa dalla scienza e dalla tecnica, sia come fonte di formidabili sfide filosofiche.

Fin da ora, centinaia di milioni di utenti guadagnano tempo prezioso con ChatGpt, che possono utilizzare, come l’autore di questo saggio, per giocare con i loro figli o per scrivere poesie. Numerosi modelli di linguaggio specializzati e concorrenti, alcuni non controllati, stanno per nascere, e le IA che citano le loro sorgenti come quelle che si profilano mi permetteranno di farne un uso ancora più puntuale nel mio lavoro di ricercatore. Come ogni strumento, bisogna imparare a utilizzare ChatGpt, sperimentarlo molto concretamente, almeno per capire come indicargli l’orientamento, il formato, lo stile, il pubblico a cui si mira e la lunghezza del testo desiderato, il punto di vista dal quale si desidera che sia scritto, e per presentargli, eventualmente, alcune esigenze specifiche, riconoscendone i punti di forza e i punti deboli, anticipando il modo in cui, connettendosi progressivamente a Internet, potrà passare dal discorso all’azione.

Le frontiere che ChatGpt respinge già nelle nostre vite sono innanzitutto quelle dell’ignoranza, del mutismo, dell’incomprensione. Sono anche quelle, forse, della banalità: dal momento che ChatGpt può eseguire meglio di noi i compiti intellettuali più comuni e impersonali, ci obbliga a essere ancora più astuti, più creativi, più sensibili; dobbiamo immaginare esami che mettano in gioco la sagacia umana, anziché semplici questionari a scelta multipla che ChatGpt compilerebbe meglio di noi; dobbiamo escogitare formule a effetto su Tinder che ChatGpt non avrebbe immaginato, haiku che non avrebbe potuto comporre, lettere di motivazione alle quali non avrebbe pensato, libri che non avrebbe potuto scrivere. In un certo senso, se ChatGpt ci farà risparmiare energie per compiti ordinari, esigerà in cambio un’immensa inventiva.

ChatGpt ci restituisce l’umanità che ci toglie altrove. Di fronte agli stereotipi perfettamente formulati, tra i quali il rischio di saturare i discorsi, ci renderà forse più attenti alla fragilità umana. Mostrandoci fino a che punto i discorsi umani sono facili da imitare e manipolare, ci renderà forse meno ingenui. Di fronte agli errori di sistema che può testimoniare, ChatGpt e i suoi futuri accoliti ci renderanno forse più attenti, permettendoci al contempo di non cedere neanche alla presunta moralina progressista della Silicon Valley. Di fronte al mondo vivente che ci sembra estraneo e agli animali che abbiamo ridotto in schiavitù, le diverse specie di IA ci condurranno forse a interrogarci. Di fronte ai saperi umani sui quali ci appollaiamo come nani sulle spalle di giganti, per riprendere la vecchia formula di Bernard de Chartres, ChatGpt ci renderà forse più umili, più scettici e più spiritosi, se non altro per prenderci un po’ gioco di lui, vale a dire di noi…

Tratto da “Vivere con ChatGpt. E se l’intelligenza artificiale ci rendesse più umani?” (Treccani) di Alexandre Gefen, pp.176, 18,00 € 

Le newsletter de Linkiesta

X

Un altro formidabile modo di approfondire l’attualità politica, economica, culturale italiana e internazionale.

Iscriviti alle newsletter