L’Intelligenza Artificiale è davvero la più grande minaccia al genere umano, come ha scritto Jonathan Merritt su The Atlantic? Fino agli anni Sessanta, la tecnologia era stata sempre pensata come funzionale all’uomo. Poi, con lo sviluppo di settori come la cibernetica e la robotica si è fatta strada una narrazione ostile, in cui le macchine avrebbero potuto sopraffare l’uomo se ben addestrate.
«Utilizzo le mie capacità nel modo più completo, il che, per un’entità cosciente, è il massimo che possa sperare», dice il computer Hal 9000 in “2001: Odissea nello spazio”. Scenari apocalittici a parte, oggi però la pervasività dell’Intelligenza Artificiale (IA) implica una riflessione seria, almeno secondo l’Unesco che ha chiesto a tutte le nazioni un quadro normativo chiaro davanti ai vuoti legislativi ed etici.
«L’IA deve essere per il maggiore interesse delle persone, non il contrario», ha dichiarato Gabriela Ramos, vicedirettrice generale per le scienze sociali e umane dell’Unesco. A questo punto conviene chiedersi se il problema sia davvero la tecnologia che chiamiamo “smart” oppure l’uso che ne facciamo. Nel bestseller “Hello World”, per esempio, la matematica Hannah Fry sostiene che, di per sé, non esistono algoritmi cattivi, ma possono esserlo persone che li programmano: che scala di valori hanno i programmatori? Chi sono? Per l’autrice se vogliamo capire le tecnologie, dovremmo conoscere chi le progetta.
Se scrolliamo le app sui nostri smartphone, facciamo ancora fatica a coglierne l’impatto sulle nostre vite, ma ci sono ambiti in cui questo è evidente. Emblematico è il caso del 19enne Christopher Drew Brooks, condannato da un tribunale della Virginia per un rapporto sessuale consensuale avuto con una ragazza di 14 anni. La pena prevista per l’imputato oscillava dai 7 ai 16 mesi di carcere: il giudice, però, ha richiesto il calcolo a un algoritmo che, utilizzando come valore di recidività anche l’età, ha imposto una pena di gran lunga superiore (24 mesi).
Secondo la macchina, il solo fatto che l’accusato avesse più anni di vita davanti rispetto a un adulto era un’aggravante. Un giudice, al contrario, avrebbe valutato più grave se ad avere un rapporto con una minorenne fosse stato un quarantenne. Il caso di Drew Brooks è un esempio di come un algoritmo possa influire direttamente sulla vita di una persona, se accettato in modo acritico.
Oggi è necessario riflettere su una tecnologia che coincide con i processi umani? «Innanzitutto, vanno distinte le tecnologie che interagiscono con i processi biologici e quell’intelligenza artificiale che simula i risultati dei processi mentali delle persone», spiega suor Helen Alford. Laureata in ingegneria a Cambridge e vice rettrice dell’ateneo pontificio Angelicum, dal 4 settembre la religiosa domenicana è stata nominata membro della Pontificia accademia della Scienze sociali da papa Francesco.
«Nello sviluppo tecnologico ci sono quasi sempre due tendenze. Nella prima, la tecnica è inserita in una forma di vita che la sostiene ed estende le sue possibilità: un grande pensatore sulla storia della tecnica, Lewis Mumford, l’ha chiamata biotecnica. La seconda tendenza, invece, mette la macchina al centro dell’attenzione, e la vita viene riorganizzata attorno ad essa. Mumford chiama questo approccio tecnocentrico con il nome di monotecnica».
Nella monotecnica rientrano i casi di tecnologie che, costruite per essere al servizio dell’utente, prendono il sopravvento creando dipendenza. La scienziata, però, non è pessimista: «Ci sono sempre varie direzioni in cui lo sviluppo tecnologico può essere incanalato – spiega – per cui abbiamo sempre una scelta. Finora la rivoluzione industriale ci ha mostrato che la visione tecnocentrica cerca di prendere il sopravvento perché spesso è ritenuta l’unica alternativa possibile. Ma con lo sviluppo tecnologico può essere diverso. Qui il problema non riguarda solo l’etica nel senso largo del termine, ma anche la nostra cultura, vale a dire: con quali occhi percepiamo il mondo o la nostra esistenza e quali sono le opzioni reali che abbiamo, partendo da quanto abbiamo ereditato dalla storia?».
Il dilemma culturale dell’intelligenza artificiale era già emerso nel 2016 al 24esimo congresso nazionale dell’Associazione teologica italiana per lo studio della morale, dove alcuni teologi avevano proposto di reimpostare l’etica così com’era stata finora concepita.
Un impatto forte sul tema è stato dato dalle neuroscienze, dove le tecniche di brain imaging, utilizzate per comunicare con pazienti incapaci di muoversi ma perfettamente coscienti hanno permesso di individuare gli stati di attivazione delle aree cerebrali dei pazienti, ma non di cogliere il loro contenuto mentale. Per alcuni è una questione di tempo, come dimostra il progetto a interfacce di NeuraLink di Elon Musk, che in futuro permetterà di connettere il cervello a un’intelligenza artificiale esterna.
Per altri studiosi, invece, il rischio sulla privacy mentale è ancora lontano. Negli ultimi anni, alcuni scienziati americani hanno cercato di replicare il cervello del verme C elegans, simulando il processo di oltre 300 neuroni con la mappatura di 7mila connessioni neuronali.
Eppure, questo è stato possibile una sola volta: il cervello così mappato con le sue connessioni, infatti, riflette l’istantanea di un tempo x, perché in altri momenti della vita – la riproduzione, per esempio – il verme attiva connessioni diverse. Se non siamo ancora in grado di mappare in toto il cervello di un verme, altrettanto difficile sarebbe farlo con un essere umano: «Non siamo ancora a un livello molto avanzato di tecnologie tale da intaccare l’integrità fisica o psichica di una persona, ma dobbiamo cominciare pensarci», avverte suor Helen Alford.
L’obiettivo di una tecnologia smart è abbattere il tempo nel processo e questo implica il concetto di predicibilità: «Predicibilità è una cosa ben conosciuta nelle scienze sociali; le politiche pubbliche, ad esempio, ne hanno bisogno perché non potremmo vivere senza dipendere da una certa predicibilità negli altri: facciamo promesse, contratti, voti», spiega suor Helen Alford, che ammette però la complessità del concetto online. «Google e Facebook, per esempio, sono sistemi che utilizzano persuasive technology con cui tengono alta l’attenzione degli utenti sui loro siti per prolungare il loro tempo lì», spiega.
Il fattore tempo è strettamente legato a quello di decisione. Per il fisico Giuseppe Trautteur, il tempo è anzi necessario perché, se tutto fosse congelato come nella teoria dell’universo a blocchi, verrebbe meno il concetto stesso di scelta. «La morte sta nascosta negli orologi», scriveva Carlo Levi.
Negli ultimi anni, alcuni scienziati stanno mettendo in discussione il concetto di scelta, ritenendola la semplice somma di processi cerebrali. «Per quanto riguarda la descrizione e la spiegazione del mondo, la scienza è misura di tutte le cose, di quelle che sono in quanto sono e di quelle che non sono, in quanto non sono», scriveva già Wilfrid Sellars in “In the space of reasons” (Harvard University Press, 1962). Ma «il fatto che una cosa possa essere prevedibile non toglie necessariamente il libero arbitrio» sostiene, al contrario, suor Helen Alford.
«Se pensiamo al libero arbitrio nel senso moderno – aggiunge – cioè, come un potere decisionale free-floating in cui ci auto-definiamo, allora è difficile riconciliarlo con il tipo di predicibilità che stanno emergendo adesso. Ma se pensiamo al concetto pre-moderno del libero arbitrio, che considera gli esseri umani come orientati verso il bene, allora questo implica che possiamo scegliere come vogliamo raggiungere il bene, anche se non sempre possiamo scegliere se perseguirlo».
Per la ricercatrice, la complessità di una scelta oggi è, piuttosto, nella volontà: «La volontà è condizionata da tanti fattori, dai bisogni e limiti naturali del complesso corpo/mente, alle leggi che si devono seguire, come la pubblicità e le norme sociali. Questo, però, non ci impedisce di intuire razionalmente qual è la cosa buona da fare e decidere liberamente come raggiungerlo. In questi termini, il libero arbitrio esiste sempre come una decisione orientata al nostro bene, piuttosto che all’autodeterminazione».
Per Thomas Metzinger, il libero arbitrio non è altro che «un ingegnoso strumento neuro computazionale» simile all’interfaccia di un software con cui un utente interagisce online. Nel suo libro “Il tunnel dell’io” scrive che «vista da una prospettiva scientifica e in terza persona, la nostra esperienza interna di una forte autonomia assomiglierà sempre più a ciò che è sempre stata: nulla più che un’apparenza».
Gli studi del filosofo tedesco si affiancano a quelli di altri scienziati e filosofi della scienza, come Adina Roskies, che spiega le interazioni umane come un’attività neuronale legata a una serie di valori, come i ricordi o le aspettative.
Suor Helen Alford si dissocia da questa riduzione della realtà, anzi coglie in queste nuove discipline la possibilità di rivedere il nostro approccio etico: «In generale, non è solamente la tecnica che sta minacciando l’idea moderna del libero arbitrio; i risultati dalla psicologia comportamentale, dalla genetica alle neuroscienze, ci spingono verso una concezione della realtà in cui relazioni con gli altri sono intrinseche al nostro essere e alla nostra auto-comprensione. Se vogliamo pensare in un modo intelligente al libero arbitrio, dobbiamo approfondire queste nuove scienze e avere un approccio pre-moderno all’etica delle virtù», sottolinea.
Con parametri chiari e regole semplici, gli algoritmi ci aiutano a ottimizzare il nostro tempo e a risolvere problemi complessi. Eppure, ancora oggi fatichiamo a considerare il loro peso sulle nostre piccole e grandi scelte, dalla ricerca di un ristorante fuori casa al tipo di notizie che vogliamo leggere.
La libertà è reale, ma il vero rischio è separarla dalle nostre tecnologie, che viceversa riduciamo a una serie di processi meccanici. A lungo andare, infatti, umanizzare la tecnologia chiamandola smart e delegare ad essa le nostre decisioni potrebbe indurci a perdere la consapevolezza che siamo esseri umani perché liberi di scegliere. In fondo, come avverte Ellen Ullman in “Life in Code”, «quando permettiamo che la complessità sia nascosta e gestita per noi, dovremmo almeno notare ciò a cui rinunciamo: rischiamo di diventare utenti di componenti».