Intelligenza emotivaSempre più persone scrivono a ChatGPT per cercare sostegno terapeutico

In un sistema sanitario in crisi, sta diventando popolare l’uso di chatbot come fossero piattaforme di psicoterapia. Tra rischi e potenzialità, l'utilizzo dell'Intelligenza artificiale nell’ambito della salute mentale ha aperto numerosi dibattiti, etici, medici e pratici

Pexels

«Mi dispiace sentire che ti senti triste oggi. La tristezza è un’emozione comune e naturale, ma può essere difficile da affrontare. Se ti va di parlare di ciò che ti preoccupa, sono qui per ascoltarti». Questo non è il consiglio di un amico, il conforto di un compagno o il sostegno di un genitore. Né tantomeno il suggerimento di un terapista. Si tratta di una risposta generata della chatbot ChatGPT alla frase: «Oggi mi sento triste».

La piattaforma poi aggiunge: «Quando ci sentiamo tristi, può essere utile cercare modi per affrontare e gestire queste emozioni. Ecco alcuni suggerimenti che potrebbero aiutarti a superare questa fase». Così il sistema di intelligenza artificiale e apprendimento automatico di OpenAI comincia a digitare un elenco numerato di consigli su come affrontare un momento di sconforto. Dall’attività sportiva e il sonno regolare all’evitare l’isolamento e limitare le fonti di stress, fino a mettere per iscritto i propri pensieri e sentimenti.

ChatGPT, la cui sigla “GPT” sta per Generative Pre-trained Transformer, è una tecnologia applicata al machine learning specializzata nella conversazione con utenti umani. Il sistema ha accesso a vaste riserve di dati ed è in grado di comprendere e rispondere in linguaggio naturale anche ad input di carattere personale. La stessa ChatGPT mette sempre in chiaro di non sostituire una figura psicologica professionale, ma ciò non ha impedito ad alcune persone di usare le piattaforme di chatbot come fossero spazio di terapia. La prospettiva che l’IA possa essere utilizzata per trattare problemi di salute mentale ha così aperto la strada a numerosi dibattiti, di natura etica e pratica.

Come riportato da un articolo di Al Jazeera scritto da Erin Hale, in forum online come Reddit gli utenti hanno raccontato le loro “sedute di terapia” con ChatGPT, discutendo con lei di problemi personali ed eventi difficili. Nel frattempo, l’hastagh #CharacterAITherapy ha raggiunto ben 6,9 miliardi di visualizzazioni su TikTok, dove le persone raccontano la loro interazione con i terapisti chatbot. E alcuni riferiscono che l’esperienza è stata altrettanto buona, se non migliore, della terapia tradizionale.

Il potenziale dell’IA generativa all’interno di un percorso di psicoterapia ha sollevato interrogativi e attrattiva, specialmente nelle aree del mondo in cui intorno alla figura dello psicologo aleggiano ancora pregiudizi e gli investimenti sui servizi di salute mentale sono ridotti al minimo.

L’Organizzazione mondiale della sanità (OMS) ha riferito, ad esempio, che il divario terapeutico per i disturbi mentali gravi è del quaranta per cento circa tra i paesi sviluppati e quelli a basso o medio reddito. Uno studio del 2020 dell’Indiana University Bloomington ha esaminato come il tabù della psicoterapia fosse decisamente più elevato in Oriente rispetto all’Occidente, stigma dovuto, in parte, alle differenze culturali nell’approccio alla salute mentale.

C’è chi, inoltre, ha posto l’accento sul fatto che sebbene l’intelligenza artificiale non possa fornire una vera empatia emotiva, al contempo questo non le permette di giudicare l’utente. «Sebbene un terapeuta si presenti come non giudicante, come esseri umani tendiamo ad esserlo comunque», ha dichiarato Lauren Brendle, che dopo aver lavorato per tre anni come consulente in una hotline suicida ha creato Em x Archii, un programma di terapia AI gratuito che utilizza ChatGPT.

In teoria, poi, la terapia dell’IA potrebbe offrire un accesso più rapido ed economico rispetto a quella tradizionale. Secondo una media calcolata dalla testata spagnola Civio, in Italia occorre infatti lavorare ben dodici ore e dieci minuti per pagare la parcella di una sola ora di terapia (considerando un salario minimo di ottocentottantatré euro e il costo medio di una seduta, che si aggira intorno ai settantacinque euro). E questo ci pone al quinto posto nella classifica europea del costo dell’assistenza psicologica sul mercato privato, dopo Romania (18,66), Slovacchia (16,06), Estonia (14,11) e Croazia (13,35). A guidare in positivo la classifica svetta invece la Francia, con sole 5,12 ore di lavoro necessarie a pagare il costo di uno psicologo. Considerare poi che in Italia a sentire il bisogno di rivolgersi a uno psicoterapeuta sono ben 8,62 abitanti ogni centomila pone ancora di più l’accento sull’urgenza e la gravità della questione.

Il prezzo eccessivo della terapia è dimostrato anche da un’indagine dell’Istituto Piepoli, condotta quest’anno per conto del Consiglio nazionale dell’Ordine degli Psicologi (Cnop), che ha rilevato come un italiano su dieci rinunci allo psicologo per questioni economiche.

Finora, l’uso dell’intelligenza artificiale nell’ambito della salute mentale è stato limitato a sistemi “ruled-based” in app per il benessere. Questo significa che queste applicazioni informatiche imitano aspetti del processo terapeutico, utilizzando un determinato numero di combinazioni di domande e risposte scelte dai propri creatori. Le piattaforme basate sull’IA generativa, invece, generano, appunto, risposte originali sulla base del proprio archivio di dati e informazioni.

Una di queste app è Wysa (diminutivo per Wysa Emotional Well-being Professional Service), un servizio di messaggistica online fornito di un terapista in forma di chatbot, con esercizi e persino un’opzione per parlare tramite messaggi vocali. Quando le domande degli utenti aumentano, Wysa li indirizza poi a un terapista umano.

Anch le app Heyy, sviluppata a Singapore, e Woebot, statunitense, seguono un modello simile basato su regole. Entrambe le piattaforme si affidano a terapisti dal vivo e a un chatbot robot-avatar che, oltre a interagire con gli utenti, offre tecniche per migliorare le relazioni o il sonno.

La fondatrice di Woebot, Alison Darcy, ha descritto il modello dell’app come un «albero decisionale altamente complesso». «Questa forma base di conversazione è modellata sul modo in cui i medici affrontano i problemi, quindi sono sistemi esperti specificamente progettati per replicare il modo in cui i professionisti possono muoversi attraverso le decisioni nel corso di un’interazione», ha detto Darcy ad Al Jazeera.

I fondatori delle tre applicazioni hanno sottolineato che non hanno alcuna intenzione di sostituire la terapia umana, bensì di fornire ai servizi tradizionali uno strumento nuovo, utile soprattutto nella fase iniziale del trattamento. Addirittura, il servizio sanitario nazionale del Regno Unito ha raccomanda Wysa come “tappabuchi” per i pazienti in lista di attesa di un terapista.

Anche se non c’è dubbio che l’intelligenza artificiale continuerà a svilupparsi ed essere potenziata nel tempo, per ora sono tanti gli esperti che diffidano dell’uso di chatbot nell’ambito della salute mentale.

A maggio, l’OMS ha chiesto cautela in questo uso dell’IA, affermando: «È imperativo esaminare attentamente i rischi quando si utilizzano LLM (modelli di linguaggio di grandi dimensioni) per migliorare l’accesso alle informazioni sanitarie, come decisione-creazione di uno strumento di supporto, o anche per migliorare la capacità diagnostica in contesti con risorse insufficienti».

Psicologi e psichiatri nutrono numerosi dubbi sull’efficacia e la sicurezza dello strumento, dalla questione della protezione delle informazioni personali e le cartelle cliniche ai rischi di arrecare problemi ancora più grandi, soprattutto nei casi di persone particolarmente vulnerabili.

Ad esempio, a fine marzo un uomo belga che soffriva di depressione si è tolto la vita dopo sei settimane di utilizzo di un programma di intelligenza artificiale chiamato Chai. Secondo quanto riportato, il programma, non commercializzato come app per la salute mentale, avrebbe alimentato le preoccupazioni dell’uomo, peggiorando la sua ansia, per poi incoraggiare i suoi pensieri suicidi.

«C’è molta eccitazione per ChatGPT e, in futuro, penso che vedremo modelli linguistici come questo avere un ruolo nella terapia. Ma non sarà oggi o domani», ha detto a BuzzFeed News il dottor John Torous, psichiatra e presidente del Comitato per la salute mentale IT dell’APA presso il Beth Israel Deaconess Medical Center. «Per prima cosa dobbiamo valutare attentamente quanto funzionano davvero. Sappiamo già che possono dire cose rischiose e hanno il potenziale per causare danni».

Affinché l’IA corrisponda a un terapeuta umano, dovrebbe infatti essere in grado di ricreare il fenomeno del transfert, in cui il paziente proietta i sentimenti sul proprio terapeuta. Gli attuali chatbot non sono in grado di questo tipo di interazione e, le capacità di elaborazione del linguaggio naturale, per quanto impressionanti, hanno dei limiti.

«Sappiamo nella letteratura psicologica che parte dell’efficacia e di ciò che fa funzionare la terapia, circa il 40-50 per cento dell’effetto, deriva dal rapporto che si instaura con il proprio terapeuta», ha detto ad Al Jazeera Maria Hennessy, psicologa clinica e professore associato alla James Cook University. «Questo costituisce una parte enorme dell’efficacia delle terapie psicologiche».

In un articolo di Healthnews, uno psicoterapeuta ha posto a ChatGPT una serie di domande relative alla salute mentale e ha valutato le sue risposte. I risultati hanno dimostrato come, sebbene lo strumento abbia il potenziale per essere una risorsa preziosa, suscita numerose preoccupazioni sulla sua accuratezza.

Spesso, infatti, fornisce consigli fuorvianti o addirittura pericolosi, ad esempio affermando che sia possibile praticare l’ERP (Esposizione con Prevenzione della Risposta), vale a dire una tecnica per vincere l’ansia, senza la supervisione di un terapista, quando l’esercizio per essere svolto in modo corretto ed efficace necessita assolutamente del contesto psicoterapico. Oppure quando suggerisce la meditazione come strategia di auto-aiuto a una persona con psicosi senza il supporto di un terapeuta. La ricerca ha dimostrato, però, come la pratica meditativa, per quanto risulti utile per molte persone, può essere pericolosa per chi ha una storia di problemi di salute mentale e può addirittura indurre o peggiorare la stessa psicosi.

Mentre alcuni esperti, come riportato da Al Jazeera, ritengono che un modo per non rinunciare al potenziale dell’IA nella psichiatria potrebbe essere adoperarla nella ricerca o nell’assistenza ai terapeuti umani nella valutazione dei progressi dei pazienti, è evidente che l’aumento di chi si rivolge a un Chatbot per chiedere aiuto dimostra una carenza nell’offerta tradizionale.

In Italia da più parti è richiamata a gran voce la necessità di una assistenza psicologica e psichiatrica più efficiente. Secondo l’OCSE, nel 2021 più del ventiquattro per cento dei giovani nel nostro Paese (quasi uno ogni quattro) ha riportato sintomi della depressione. Aumentano vertiginosamente anche gli attacchi di ansia, come rilevato dall’Associazione Europea Disturbi da Attacchi di Panico (Eurodap).

E mentre il governo ha riaperto anche per il 2022 l’offerta di un bonus psicologo per ovattare il peso finanziario della terapia, il Ministero della Salute denuncia la grave mancanza del numero stesso degli psichiatri e psicologi nei Dipartimenti di Salute Mentale del Paese.

Un sistema sanitario insufficiente nella qualità e nella quantità della sua offerta porta naturalmente chi ne ha bisogno alla scelta di opzioni alternative, con tutti i loro rischi potenziali. Costi quel che costi, purché si venga ascoltati almeno da qualcuno.

Le newsletter de Linkiesta

X

Un altro formidabile modo di approfondire l’attualità politica, economica, culturale italiana e internazionale.

Iscriviti alle newsletter