La sorveglianza delle emozioniIl problema degli algoritmi che leggono i sentimenti umani

Dopo il riconoscimento facciale le macchine saranno impiegate anche per studiare i micromovimenti del volto, cogliere le sensazioni e le intenzioni del soggetto. Al momento mostrano molti limiti, ma in futuro sarà necessaria una regolamentazione

di Amanda Dalbjorn, da Unsplash

Il riconoscimento facciale non è più una novità. Ma adesso la nuova frontiera per l’Intelligenza Artificiale è cercare di decodificare le espressioni del volto, capire lo stato d’animo e l’umore del soggetto e, se possibile, dedurre e prevedere le sue intenzioni.

Che non sia un’idea lontana dalla realtà lo dimostra il progetto di studio del True Light College di Cowloon, a Hong Kong. Come racconta questo interessante articolo del Financial Times, durante le chiusure imposte dalla pandemia i bambini hanno studiato e lavorato – come tutti – collegandosi su internet. Ma a differenza degli altri, venivano osservati tutto il tempo da specifiche telecamere che registravano ogni micro-movimento del loro volto per comprenderne reazioni e sensazioni.

Il risultato del programma, chiamato 4 Little Trees è stato – secondo gli insegnanti – più che soddisfacente. L’intelligenza artificiale si è dimostrata in grado di individuare emozioni come felicità, tristezza, rabbia e sorpresa. Coglieva gli attimi di distrazione o di smarrimento, elaborava un report per ogni alunno e i professori se ne servivano per rendere più personalizzata e interattiva la lezione. Per il suo fondatore, Vicky Lim, ex insegnante, il sistema funziona nell’85% dei casi.

Quello di Hong Kong, per quanto particolare, è solo uno dei tanti esempi possibili. Al momento sono centinaia le aziende in tutto il mondo impegnate a elaborare programmi in grado di decodificare le emozioni umane, con l’obiettivo di insegnare alle macchine a prevedere il comportamento delle persone.

In prima fila ci sono, come era da aspettarsi, i giganti del web: Amazon, Microsoft e Google offrono già un servizio base, mentre altre aziende più piccole come Affectiva e HireVue si concentrano su settori più mirati come l’automotive (per rilevare il livello di attenzione alla guida), la pubblicità (per testare le reazioni dei soggetti di fronte ai messaggi promozionali) e le risorse umane (per cogliere le personalità degli individui che si intende assumere). La Disney, per fare un esempio, ha già cominciato a fare sperimentazioni su volontari per cogliere le reazioni del pubblico ai suoi film. Mentre la Ford, la BMW e la Kia la impiegano per fare indagini sui guidatori e la loro concentrazione.

Non solo. In Inghilterra la polizia del Lincolnshire ha già finanziato alcuni piani per impiegare l’Intelligenza Artificiale negli spazi pubblici. Servirà a identificare le persone sospette e, perché no, fermare persone con propositi minacciosi. In Cina, nella regione dello Xinjiang (dove vive la maggior parte degli uiguri, segregati e costretti in campi di detenzione), è già in funzione.

L’obiettivo è sempre lo stesso: rendere più facile prevedere i comportamenti degli esseri umani. Che sia per ragioni di sicurezza o di produttività (per le aziende che assumono) il meccanismo alla base è il medesimo. E per questo si prevede che dai 19,5 miliardi di dollari impiegati nel settore nel 2020 si arriverà a 37,1 miliardi nel 2026. Il boom è qui.

Il problema – non da poco, in realtà – è che non è detto che funzionino. O meglio, che funzionino in modo accurato.

Secondo molti scienziati finora non sono state presentate prove sufficienti. Certo, gli algoritmi riescono a individuare le espressioni umane, ma non è abbastanza per poter dire che riescano a decodificare cosa i soggetti pensino e sentano. O, ancora meno, immaginare quello che pianificano.

Dopo una ricerca di due anni da parte dell’Association for Psychological Science, in cui sono stati passati in rassegna oltre mille studi sulla tecnologia per il riconoscimento emotivo, il risultato è stato netto: gli esseri umani esprimono le loro emozioni con una grande varietà di modi. I movimenti facciali ne costituiscono una gran parte, ma non la totalità. In più esistono molte sfumature, differenze e intrecci. Per esempio, aggrottare le ciglia è espressione di rabbia, certo. Ma ci sono molti casi (il 70%) in cui non vengono aggrottate. E molti di più in cui vengono aggrottate, ma per altri motivi.

Insomma, la mappatura delle emozioni umane e dei micro-movimenti che le esprimono è molto più complessa di quanto non si pensi e, soprattutto, di quanto viene deciso in fase di programmazione.

È un problema complesso e delicato, soprattutto perché rischia di far entrare in settori importanti come quello dell’istruzione e della carriera lavorativa un meccanismo invasivo e, per di più, non accurato.

Come spiega al Financial Times lo scienziato Suresh Venkatasubramaniana, esperto in machine learning alla Università dello Utah. «Ogni volta che impostiamo una macchina, ci vuole qualcuno che fissi dei parametri di base. E nessuno possiede indicazioni sicure e incontrovertibili per definire questi dati. È probabile che se sorrido sono felice, ma non è detto. Potrei essere felice senza sorridere o, come accade in molti casi, sorridere senza essere felice».

Così mentre vengono “istruite” da esseri umani, le macchine si trovano a replicarne i pregiudizi e i condizionamenti. Accade allora che, pur di fronte allo stesso soggetto, il programma possa dare risposte diverse a seconda dell’aspetto fisico e del vestiario. O, peggio ancora, che ignori del tutto il fattore culturale che soggiace alle espressioni umane.

Di fronte a questi dati (e a una serie di denunce) la HireVue ha dichiarato nel gennaio 2021 che non impiegherà più l’analisi delle espressioni facciali per fare selezioni di lavoro, raccomandando anche alle altre aziende del settore di fare lo stesso. «Per una maggioranza significativa di impieghi e settori l’analisi visuale dimostra una correlazione alla performance lavorativa peggiore rispetto ad altri elementi di valutazione».

Per molti si tratta solo di una fase iniziale. La tecnologia migliorerà, diventerà più precisa e sarà definita anche parametrandosi a culture e Paesi diverse.

Rimane soltanto un problema. La nuova tecnologia ha una natura invasiva, opera senza la minima richiesta di consenso da parte del soggetto interessato e fa un uso poco chiaro dei dati che raccoglie. In poche parole, solleva questioni di privacy importanti. Anche per questo in tanti, conclude il giornale britannico, hanno chiesto una regolamentazione precisa e tempestiva. Che sia il più stretta possibile.

Non si interrompe un’emozione, figuriamoci la Soncini!

X

Linkiesta senza pubblicità, per gli iscritti a Linkiesta Club

Iscriviti a Linkiesta Club