Insegnare a imparareL’intelligenza artificiale può comprendere i valori morali? (Forse no)

Gli algoritmi hanno un ruolo sempre più importante nella vita dell’uomo, ne guidano le decisioni e ne condizionano le riflessioni. Un lungo articolo della rivista online britannica Unherd spiega i rischi dietro questa evoluzione del rapporto tra macchina e uomo

LaPresse/Fabio Palli

L’intelligenza artificiale è una presenza sempre più diffusa nella vita di tutti: gli algoritmi sono parte della quotidianità, condizionano ragionamenti e riflessioni, guidano le nostre decisioni, in alcuni casi ampliano il ventaglio delle opzioni disponibili. E all’intelligenza artificiale sempre più spesso vengono demandati compiti più o meno importanti delle nostre giornate.

Nasce da qui una riflessione di Timandra Harkness, già autrice del libro “Big Data. Does Size Matter?”, riportata in un lungo articolo pubblicato su Unherd sulla necessità e l’opportunità di delegare alle macchine una parte sempre maggiore delle nostre decisioni. L’articolo si apre con una descrizione dell’imperfezione della tecnologia: «Non è insolito che gli algoritmi commettano errori sugli esseri umani. A volte questi errori sono innocui. Ci sono ad esempio annunci di prodotti per noi inappropriati o lavori per i quali puoi essere completamente inadatto. Altre volte, sono più problematici: uno scambio di persona potrebbe mandare l’uomo sbagliato in prigione».

L’esempio di Harkness non è casuale: è legato agli algoritmi per il riconoscimento facciale. Si sa che molto spesso sbagliano a classificare i volti di donne nere, indicandoli come volti maschili. Ed è già capitato in passato che il riconoscimento di una telecamera si sbagliasse, finendo per accusare di un crimine la persona sbagliata.

Da qui l’articolo arriva al cuore della riflessione: «Non è solo che i programmi non sono abbastanza intelligenti, è che non condividono i nostri valori. Non seguono parametri come la “correttezza”, e per loro non esiste il “non essere razzisti”. Più deleghiamo le nostre decisioni alle macchine e più sarà necessario avere una tecnologia affinata, sofisticata, capace di sobbarcarsi una mole di lavoro sempre maggiore, quindi con un peso maggiore», scrive l’autrice.

Harkness cita anche il libro “The Alignment Problem”, di Brian Christian, un saggio che parte da un grosso interrogativo: «Come possono le macchine apprendere i valori umani?». Domanda che a sua volta ne sottende almeno altre due, probabilmente di più. Intanto, bisogna chiedersi se le macchine siano davvero in grado di imparare qualcosa, e poi ovviamente bisognerebbe tracciare i contorni dell’oggetto in questione, quindi i valori umani («cosa sono?»).

La risposta alla prima domanda sembrerebbe positiva: con un gioco di parole si potrebbe dire che le macchine hanno imparato a imparare. L’ingegneria è andata in quella direzione fin dall’inizio, e ha avuto un discreto successo: il benchmark è sempre stata la mente umana, punto di riferimento per immaginare e poi progettare un’intelligenza artificiale pensante.

Il successo sta nel fatto che in un ragionamento logico, quindi alla ricerca di una risposta certa, una macchina risulterà fatalmente più veloce di una mente umana nell’elaborazione di tutte le informazioni disponibili.

«Oltre alle macchine, anche i loro creatori umani hanno imparando qualcos’altro: non solo come costruire quelle macchine e su quali dati addestrarle, ma anche su come continuare a farle conoscere cose nuove. L’apprendimento per imitazione, un processo naturale anche per l’uomo fin dall’infanzia, può funzionare per l’Intelligenza Artificiale. Con un metodo chiamato Inverse Reinforcement Learning, l’Intelligenza Artificiale può persino dedurre ciò che un essere umano sta cercando di fare e superare il suo insegnante. Anche in compiti complessi come far volare un drone», si legge nell’articolo.

Se le macchine possono imparare, va spiegato se possono arrivare a capire quelli che Timandra Harkness chiama “valori umani”. «La maggior parte di noi si confonde con una moralità impura e fatta di abitudini, linee di confine che abbiamo tracciato dopo averle conosciute dalla nostra famiglia, per la religione, legge o altre norme sociali. Magari sono linee che abbiamo tracciato noi stessi come risultato delle nostre esperienze, per istinto di correttezza, lealtà, amore o rabbia. Il modo in cui ci comportiamo non è quasi mai semplice e lineare come un elenco ordinato di principi morali. Siamo sempre influenzati da ciò che fanno gli altri, dal fatto che altre persone stiano guardando e chi pensiamo scoprirà cosa abbiamo fatto», spiega l’autrice.

D’altronde di quei valori umani standard non c’è una matrice standard e prestabilita che si può installare in un computer sotto forma di dati, file, informazioni. Come del resto non esiste per l’uomo: a sua volta in difficoltà nel definire una catalogazione oggettiva di valori.

Nel suo libro Brian Christian prova a mettersi dall’altro lato dello specchio, a capire il punto di vista – se così si può dire – di un algoritmo, esperimento il problema in maniera schematica. La chiave di volta è nell’incertezza, campo in cui una macchina ha maggiori difficoltà a muoversi: «Come prendiamo decisioni quando abbiamo informazioni incomplete? Così come il cervello umano non funziona con logica binaria, i computer progettati secondo un calcolo di probabilità invece che per immagini deterministiche del mondo, affrontano meglio le situazioni reali. Ma questo approccio può aiutare sia gli esseri umani che i robot a prendere decisioni quando non siamo sicuri di cosa sia giusto o sbagliato?», si chiede.

La risposta che trova l’autore di “The Alignment Problem” è negativa: pur adottando un approccio basato sull’Effective Altruism, che individua la decisione giusta in quella che massimizzerà il bene per le persone (ad esempio finanziare la lotta contro la malaria è sempre tra le opzioni migliori possibili), resta da capire cos’è il bene, cosa è buono, in generale. Un’intelligenza artificiale progettata per prendere decisioni utilitaristiche ottimali potrebbe portare a risultati complessivamente migliori, ma potrebbe anche significare, ad esempio, sacrificare vite innocenti per salvarne altre. E non sarebbe sempre in linea con i nostri istinti morali».

La soluzione allora potrebbe essere quella di non chiedere a un algoritmo di sostituirsi all’uomo in sede decisionale. Ma solo di leggere le sue intenzioni e aiutarlo, come strumento di supporto. «Con programmi come il Co-operative Inverse Reinforcement Learning, invece di guidare, volare o giocare, la macchina apprende l’obiettivo stabilito a dall’uomo e quello diventa un obiettivo condiviso», scrive Timandra Harkness.

Ma anche in questo caso sarebbe difficile creare una sovrapposizione perfetta tra la parte umana e quella tecnologica: «Gli esseri umani sono sociali – aggiunge – e anche i valori morali sono sociali. Il pensiero è sociale. L’intera società umana si basa su persone che cooperano, imparano gli uni dagli altri, testano e rivedono le loro idee e comunque vivono di profondi disaccordi, alcuni dei quali cambiano nel tempo. Affinché le macchine si allineino ai valori umani, dovrebbero lavorare al nostro fianco, imparando, adattandosi e cambiando. E si allineerebbero comunque solo parzialmente, con alcuni di noi più di altri».

In conclusione del suo articolo su Unherd, Timandra Harkness svela però un risvolto negativo, un effetto forse indesiderato del tentativo di avvicinare le macchine al ragionamento e all’apprendimento umano.

È vero che gli algoritmi stanno imparando a riconoscere gusti, abitudini, comportamenti. Ma è anche vero che «la nostra comprensione del cervello, della mente e della persona – dice – è stata influenzata nell’ultimo secolo dalla matematica, dalla logica e dall’informatica. Aspetti della vita umana che possono essere quantificati, digitalizzati. Quindi rischiamo di perdere il controllo del mondo, non in favore dell’intelligenza artificiale o delle macchine in quanto tali, ma per colpa dei modelli e delle schematizzazioni che stanno modificando quel che vogliamo. E quel che siamo».