Informatica affettivaL’intelligenza artificiale non riesce (ancora) a leggere le nostre emozioni

La AI deve fare ancora molta strada per provare l'intero spettro emotivo umano, ma alcuni problemi possiamo già vederli, specie nelle tecnologie di riconoscimento facciale: che succede quando le macchine adottano i nostri bias?

Vincent Yu

Vent’anni fa, dopo l’attacco alle Torri Gemelle, il dipartimento dei Trasporti degli Stati Uniti cominciò a utilizzare il cosiddetto “sistema Ekman”, un metodo elaborato da uno psicologo che avrebbe consentito alle forze sicurezza di individuare potenziali terroristi in luoghi pubblici basandosi semplicemente sulle espressioni del volto.

Nel 2019, la fotografa palermitana Roselena Ramistella ha creato il progetto The Warmth, una rassegna sul linguaggio emotivo dei migranti del centro richiedenti asilo (Sprar) di Palermo attraverso immagini scansionate da un termoscanner. Nelle fotografie, il dispositivo a infrarossi utilizzato è in grado di isolare le parti biometriche innervate dal calore a seguito di alcune domande, con l’obiettivo di tracciare una mappa umana delle emozioni: «Mi sono chiesta se le emozioni avessero un colore e se potessi vederle» ha spiegato l’artista alla giornalista Phoebe West. Ora, se una termocamera è capace di tradurre le aree del nostro corpo in emozioni, se opportunamente sollecitate, è legittimo chiedersi se, da qui a qualche anno, saremo in grado di sviluppare un’Intelligenza Artificiale in grado di interpretare le emozioni, superando anche il sistema Ekman?

La domanda è legittima. Secondo una ricerca pubblicata dal Time i primi di settembre, entro il 2024 l’industria dell’IA che predice le emozioni varrà circa 56 bilioni di dollari, almeno 37 miliardi di dollari secondo le ricerche di mercato di Markets and Markets. L’interesse è alto: le emozioni, infatti, giocano su un fattore sempre più determinante nel nostro sistema economico, ossia il tempo.

Decodificarle in poco tempo, non solo ridurrebbe il nostro tempo di risposta dell’utente, ma influirebbe su una comunicazione più tempestiva, il che è essenziale nel business. Per Cristiano De Nobili (@denocris su Instagram), fisico teorico e AI scientist, occorre però fare una distinzione: «C’è una linea di ricerca dell’intelligenza artificiale che ambisce a far sì che gli algoritmi provino delle emozioni. È un campo pionieristico, ancora agli esordi e non è da confondere con quello degli algoritmi che per ora si limitano invece a comprendere le emozioni umane, la cosiddetta Emotion AI o Affective Computing, che cerca di rintracciare dei pattern emotivi osservando per esempio l’immagine del volto o leggendo dei testi» spiega.

Gli algoritmi che si occupano di tracciare emozioni rientrano nelle cosiddette «tecnologie di riconoscimento facciale» e sono attualmente oggetto di svariate ricerche. Una fra tutte, quella condotta da un team interdisciplinare nel dipartimento di Scienze computazionali dell’Università del Massachusetts (Olsen, Harrington, Siegelmann), che hanno analizzato i principali tool di lettura facciale presenti nei videogiochi. Per i ricercatori, sono il contesto ottimale per tracciare le correlazioni tra player in carne e ossa e macchine: tradotto in altri termini, in gran parte dei videogiochi l’algoritmo è programmato per registrare i processi decisionali del giocatore, se sollecitato da condizioni esterne, come pericoli, imprevisti, pause.

L’obiettivo è creare prodotti sempre più immersivi e al livello di simulatori: è quanto fa il popolare videogame The Sims, basato su quello che la scienziata dell’MIT di Boston, Rosalind Pickard, chiama informatica affettiva”. Il team di ricerca che ha analizzato gli algoritmi dei principali videogiochi si è focalizzato su uno specifico, quello utilizzato in Globulation. Si tratta di un gioco di strategia in tempo reale, in cui il player per vincere ha bisogno di combinare i cosiddetti «agenti», ossia parti di un sistema a cui è affidata una funzione specifica.

Gli agenti vengono stimolati da un’IA che suscita delle emozioni basilari, come paura e frustrazione. Bastano queste – secondo il gruppo di ricerca – per individuarne altre, perché deducibili. Per esempio, la contentezza sarebbe deducibile da un’espressione di distensione facciale compresa tra la paura e la frustrazione. Ma è davvero così? «Al momento dunque non esiste ancora un’IA in grado di comprendere l’intero spettro delle emozioni umane, per talune espressioni la differenza è più sottile e risente del contesto – spiega De Nobili -. Ciononostante la forza degli algoritmi è quella di saper generalizzare: quando, per esempio, un algoritmo vede migliaia di immagini di sorrisi, statisticamente rimuove quei micro-dettagli che rendono un’espressione peculiare. Se poi parliamo di espressioni comuni come il sorriso, la facilità di riconoscimento può essere abbastanza spiccata». 

La ricerca sull’Emotional AI nasce dalle tesi dello psicologo Paul Ekman, che negli anni Sessanta eseguì degli esperimenti in Papua Nuova Guinea sulle tribù Fore di Okapa. L’obiettivo era dimostrare che, a prescindere da genere, società e circostanze esterne, ci potessero essere delle emozioni comuni a tutto il genere umano. Dimostrazione appunto, perché lo studio di Ekman partiva dalla ricerca di Charles Darwin.

Il padre dell’evoluzionismo, che alle emozioni aveva dedicato uno studio approfondito ne L’espressione delle emozioni nell’uomo e negli animali, classificava alcune espressioni umane come «adattative»: movimenti che non sono tanto il riflesso di una comunicazione quanto una conseguenza di azioni di protezione da circostanze esterne – per esempio, arricciare il labbro quando si è disgustati potrebbe essere interpretato come un movimento di ritrazione delle labbra per proteggersi da patogeni esterni.

Tutto questo per Ekman era plausibile e così, fra le montagne di Papua Nuova Guinea, arrivò a classificare sei tipi di emozioni umane: «Le sei emozioni su cui mi sono concentrato hanno espressioni» aveva spiegato sulla rivista Nature. Lo studio sarebbe stato uno fra i tanti se, dopo i fatti dell’11 settembre, la divisione Trasporti degli Stati Uniti non avesse acquistato il metodo Ekman per individuare potenziali terroristi sui mezzi di trasporto. 

Presumere che lo stato emotivo di una persona possa essere facilmente dedotto dai 43 muscoli che compongono il nostro viso è stato contestato da diversi ricercatori negli anni. Nel 2019 gli scienziati della rivista Psychological Science sono arrivati alla conclusione, dopo due anni di ricerche e lettura immagini da 11mila pubblicazioni, che non è possibile correlare le immagini sotto una stessa emozione.

Le lacrime del cestista Zion Williamson che festeggia una schiacciata, quelle della cantante Adele che vince i Grammy Awards e quelle dei fan di Justin Bieber a un concerto in Città del Messico sono emozioni diverse veicolate però dalla medesima espressione. Ma tra contestatrici di tale teoria, Lisa Barrett e Stacy Marcella, non mancano ricercatori che la pensano diversamente, come la canadese Jessica Tracy, psicologa dell’Università della British Columbia a Vancouver, che non esclude in toto la teoria di Ekman, pur rivedendone alcuni presupposti.

È interessante che, se gli scienziati ancora si dividono sull’attendibilità di queste teorie, aziende tech nel mondo stanno investendo bilioni di dollari su queste teorie. Alcune aziende, come Affectiva o Microsoft Azure, lo hanno già fatto da tempo. Per esempio, il programma Emotion di Microsoft promette di individuare emozioni «comunicate a livello interculturale e universalmente con particolari espressioni facciali».

Negli Usa, dove i processi per regolamentazione l’IA sono indietro rispetto all’Europa, agenti dell’FBI sono addestrati e rilevare emozioni tramite espressioni facciali per individuare potenziali terroristi. Nel sistema giuridico, può essere considerata prassi processuale la «lettura delle emozioni di un imputato», come accaduto nella Riggins v. Nevada, quando la Corte Suprema degli Stati Uniti decise se considerare reale i disturbi mentali dell’imputato e consentirgli l’assunzione di psicofarmaci durante il processo: va da sé che giudicare la follia di un uomo e la sua eventuale condanna a morte sulla base di un sistema ancora contestato dalla scienza trent’anni dopo, forse non è eticamente eccepibile.

Passando al settore privato, la lettura delle emozioni giova a settori capitali, come il marketing e la vendita. L’algoritmo dell’azienda Affectiva ha vagliato sette milioni di volti provenienti da circa novanta paesi. A seguito della pandemia ha avuto estrema popolarità il software creato da un ex insegnante di Hong Kong, Vicky Lim: 4 Little Trees permette di raccogliere tutte le microespressioni facciali di un alunno e non solo rintracciare le emozioni, ma anche misurarne la motivazione e, così, prevedere l’andamento scolastico: «Attenzione, però – avverte De Nobili -.Per quanto riguarda gli algoritmi di riconoscimento facciale che leggono le emozioni in determinati contesti, vanno considerati i possibili bias.

Un esempio celebre è quello di un algoritmo addestrato a valutare il potenziale di successo di uno studente basandosi sulla sua espressione facciale: è stato dimostrato che le persone afroamericane erano spesso escluse perché “inclini a commettere reati” secondo l’algoritmo. È ovviamente un bias della tecnologia, che attingeva da un dataset in cui i volti di afroamericani comparivano nelle statistiche giudiziarie. In quel caso, l’algoritmo con bias evidenti non valutava in modo giusto. C’è quindi tutto un settore, Fair and Explainable AI, che studia come correggere questi difetti e rendere gli algoritmi più equilibrati».

Ha fatto discutere l’utilizzo di telecamere abilitate al riconoscimento delle emozioni nello Xinjiang, la regione della Cina nordoccidentale dove si stima la presenza di circa un milione di uiguri. Intervistato al Financial Times, l’esperto di sicurezza pubblica Li Xiaoyu ha dichiarato che la tecnologia ha lo scopo di «identificare rapidamente i sospetti criminali analizzando il loro stato mentale». Eppure Oltreoceano, in paesi come gli Stati Uniti si possono osservare fenomeni non proprio diversi.

Due anni fa, l’organizzazione Privacy Information Center ha denunciato alla Federal Trade Commission l’azienda HireVue per sospette pratiche commerciali sleali, «strumenti di Intelligenza Artificiale non provati, invasivi e soggetti a pregiudizi». Dopo l’esposto, HireVue ha annunciato che avrebbe sospeso l’utilizzo di algoritmi di riconoscimento facciale, sollevando i dubbi di tali mezzi quando operano nel settore del recruiting.

Oltreoceano, per esempio, potrebbe capitare di presentarsi a un colloquio di lavoro ed essere scansionati per tutto il tempo da un algoritmo, che valuta i movimenti muscolari del viso. Dalla Bangor University in Galles, il ricercatore Andrew McStay, fra i principali esperti su queste tecnologie, ha di recente affermato che la valutazione in base alle emozioni è problematica anche perché «occidentale-centrica […]. Gli psicologi concordano che le emozioni sono una etichetta sociale applicata a stati fisiologici».

Lo scorso 21 aprile l’Unione europea ha presentato una proposta di legge sull’IA che pone un veto pesante sulle cosiddette “tecnologie real time, cioè quegli algoritmi che si basano sul riconoscimento facciale e altri tipi di identificazione biometrica. Solitamente, si tratta di tecnologie utilizzate in luoghi pubblici con svariate implicazioni, fra cui il marketing – tra tutte, quelle utilizzate dall’azienda Millward Brown per tastare le preferenze dei clienti di Coca-Cola.

Nel documento presentato dall’Ue, si tratta di sistemi intrusivi perché «evocano un sentimento di sorveglianza costante e indirettamente dissuadono dall’esercizio della libertà di assemblea e altri diritti fondamentali» e soltanto in rare eccezioni potrebbero essere utilizzate: «La tecnologia non dovrebbe essere legata solo al profitto, ma va sempre usata con senno e visione» spiega De Nobili, che lavora sui sistemi di IA per contrastare il cambiamento climatico: «Lo sviluppo di un’IA legata alla lettura delle emozioni sarà inevitabile. A livello tecnico-scientifico, questo è un aspetto positivo, purché la tecnologia sia sempre considerata come tech for humans. Il progresso tecnologico è veloce, anche se spesso il processo legislativo si dimostra lento e obsoleto per le tecnologie real time».

Le newsletter de Linkiesta

X

Un altro formidabile modo di approfondire l’attualità politica, economica, culturale italiana e internazionale.

Iscriviti alle newsletter