Nel 1956 il mondo stava curando le ferite inflitte dalla bomba atomica, quando Günther Anders scriveva: «Come un pioniere, l’uomo sposta i propri confini sempre più in là, si allontana sempre più da se stesso» (“L’uomo è antiquato”). Il filosofo non aveva ancora visto il napalm utilizzato contro i Vietcong o assistito al disastro della centrale nucleare a Chernobyl, ma era evidente che la riflessione sui rapporti tra uomo e tecnologia appena iniziata tirava già in ballo la responsabilità del suo utilizzo.
Dopo cinquant’anni, il dilemma etico delle tecnologie non solo si è ampliato, ma non ha più i contorni definitivi del secolo scorso. L’Intelligenza Artificiale (IA), l’Internet of Things (IoT) e i tool sempre più pervasivi che utilizzano il 5G, infatti, pongono veri e propri dubbi etici che meritano una riflessione. Prendiamo il caso di The Moral Machine. Si tratta di una piattaforma sperimentale online progettata da alcuni ricercatori per indagare i dilemmi morali che si presentano in un veicolo a guida autonoma.
In modo virtuale, un utente deve scegliere fra due scenari che gli si presentano nel caso di un imprevisto fatale: salvereste la vostra vita uccidendo dei passanti o viceversa? È un esempio limite, certo, ma rimarca come, nel campo dell’IA, chi programma gli algoritmi influisca direttamente su principi come la responsabilità e l’autonomia decisionale: «La tecnologia dell’IA non è neutra» risponde Massimo Canducci, Chief Innovation Officer del Gruppo Engineering. Insegna Innovation Management all’Università di Torino ed è tra i massimi esperti italiani del settore: «Il martello è una tecnologia neutra, ma con l’IA il discorso è diverso – spiega -. Gli algoritmi adattativi, infatti, modificano il loro comportamento sulla base di ciò che accade. Questo significa che una tecnologia utilizzata all’inizio in modo etico può, col tempo, decidere approcci distanti dalla morale per ottenere un risultato ottimale».
Google ha un problema di etica
Il caso di Google è esemplificativo. Nel 2018 la società di big tech ha chiuso, dopo soltanto sette giorni, il board che stava analizzando questioni etiche chiave dei suoi algoritmi, come l’equità e l’inclusione sociale. «Non credo che questo sia il posto giusto per impegnarmi in un lavoro così importante» aveva twittato Alessandro Acquisti, esperto di privacy, subito dopo le dimissioni dal consiglio. Negli ultimi anni, la società di Mountain View è stata al centro dell’opinione pubblica per aver preso parte al progetto Maven, il programma messo in piedi dal Dipartimento della Difesa Usa per analizzare i filmati dei droni utilizzando l’IA.
La stessa società ha, poi, chiarito che il loro software, TensorFlow, sarebbe stato utilizzato per costruire algoritmi di riconoscimento di oggetti, non persone. Eppure, ogni buona intenzione non esclude che, in futuro, algoritmi simili possano attingere a dati sensibili e prendere decisioni discutibili: «Una questione aperta è il modello decisionale di questi tool, perché non siamo in grado di capire come prendono le decisioni sulla base dei dati d’ingresso – spiega Canducci -. In una sentenza, il giudice motiva il suo verdetto: nel caso dell’IA questo non è possibile. I ragionamenti di una macchina non sono sufficientemente aperti, per cui ci troviamo davanti a una decisione che possiamo accettare oppure no, non abbiamo altra scelta».
Algoritmi razzisti
Da tempo, la questione su come ragiona l’IA interessa il mondo scientifico. Lo scorso giugno, un gruppo di ricercatori ha firmato una petizione su Medium per chiedere di interrompere la pubblicazione di uno studio che profilava l’identikit di criminali attraverso algoritmi tarati sulle scansioni facciali e le statistiche dei delitti. Gli scienziati contestavano i risultati dello studio perché il sistema di riconoscimento facciale poneva all’80% un pregiudizio razziale: un tipo di apprendimento del genere, seppure affidato a una macchina, non si vedeva dall’epoca delle teorie fisiognomiche di Cesare Lombroso.
«È il problema del garbage in e garbage out – specifica Canducci -. Se nella macchina inseriamo dati che, per qualche motivo, sono legati a un’impostazione concettuale, possono generare esiti discriminanti. La causa è in una conoscenza indotta sbilanciata, che presenta dei bias, pregiudizi. Può accadere nelle tecnologie che si occupano di apprendimento automatico, machine learning e deep learning».
Il diritto può essere la soluzione?
Come scriveva il giurista Stefano Rodotà in un prezioso contributo pubblicato sulla rivista MicroMega nel 2015, «per affrontare questo problema, il riferimento non può essere cercato nell’intelligenza artificiale, ma in quella collettiva, dunque nella politica e nelle decisioni che questa è chiamata ad assumere». Un caso apripista in tal senso è quello del Cile, dove i neurodiritti sono al centro di una riforma costituzionale che verrà approvata entro quest’anno. Il progetto di legge, infatti, prevede la tutela della privacy per i dati mentali, cioè quelle informazioni cerebrali che vengono mappate da tecnologie di IA sempre più sofisticate.
Spesso si pensa che la mappatura cerebrale più avanzata sia utilizzata in ambito medico, nella risonanza magnetica per esempio. Eppure, basta guardare ai modelli di interfaccia cerebrale su cui sta lavorando Neuralink di Elon Musk per rendersi conto che il tema non è fantascienza, ma riguarda il presente. Il padre della Tesla sta, infatti, cercando soluzioni per connettere il cervello umano ai computer allo scopo di potenziare la mente. Una tecnologia che potrebbe avere applicazioni importanti in ambito sanitario: ma chi può negare che, in futuro, la stessa tecnologia non possa spostare il controllo delle decisioni fuori dal cervello umano? «Un chip impiantato nel cervello può essere percepito come una forma di violenza – sottolinea Canducci -. Ma se applichiamo questa tecnologia in ambito sanitario, per la cura di malattie, può essere positiva. Il problema è che capire cosa è giusto o sbagliato in alcuni frangenti è difficile».
IA e responsabilità sociale
Per Oliver Goodenough, uno dei più autorevoli studiosi dei rapporti tra neuroscienze cognitive e diritto, lo sviluppo di tecniche di neuroimaging e brain imaging è rivoluzionario, perché i meccanismi cerebrali non possono prescindere dalle azioni umane. Eppure Rodotà metteva in guardia da un’innovazione non opportunamente incanalata.
Per lui, l’unica soluzione a una deriva che, in nome del progresso de-responsabilizza l’uomo, è il diritto. In questa direzione, da tempo si sta ponendo l’Europa. A differenza degli Stati Uniti o dell’Asia, il Parlamento europeo ha avviato negli anni un percorso normativo per regolare l’utilizzo dell’IA e analizzarne l’impatto economico. Oltre ad assicurare uno sviluppo in linea con il resto del mondo – in Europa si calcola un investimento nell’IA dai 2,4 ai 3,2 miliardi di euro – l’Ue include nel dibattito temi legati all’etica, la responsabilità e i diritti, come quello di proprietà: in questo modo, non solo si crea consapevolezza verso lo strumento, ma si instilla la fiducia nei cittadini e una presa di coscienza che tiene conto delle libertà personali.
Nel giro di pochi anni, anche nel resto del mondo sono nati enti che prevedono un approccio etico all’IA, come l’Institute for Ethical AI and Machine Learning nel Regno Unito, oppure la Responsible Computer-Science Challenge, che si occupa di inserire nei percorsi di studio informatici una formazione etica legata all’IA. Oltreoceano, si segnala il Berkman Klein Center, nato da una costola dell’Univeristà di Harvard.
Se è, quindi, innegabile che alcune società del mondo big tech possano definirsi detentrici del monopolio dell’IA, è altrettanto vero che tutti i cittadini hanno la loro fetta di responsabilità per quanto accadrà in futuro. La tecnologia non è neutra ed è già qui tra noi: soltanto una consapevolezza collettiva la renderà alleata dell’uomo e non una sua sostituta.