Ora Amazon vuole prendere il posto del medico, ma i dottori virtuali sbagliano eccome

Amazon continua a spingere sulla sanità per rivoluzionare anche questo campo. Per esempio usando piattaforme vocali come Alexa, come primo consulto medico. Ma l’intelligenza artificiale, seppur utile per molte cose, non sostituirà mai medici e farmacisti

Medicina Linkiesta
7 Aprile Apr 2018 0730 07 aprile 2018 7 Aprile 2018 - 07:30
Tendenze Online

Nel giro di poche settimane Amazon ha lanciato la sua linea di farmaci da banco (gli Otc o over the counter che si possono vendere senza ricetta medica) e ha siglato un accordo con Berkshire Hathaway (la holding guidata dall’investitore miliardario Warren Buffett) e JPMorgan Chase per creare una società di assistenza sanitaria per i propri dipendenti negli Stati Uniti. Non è ancora chiaro in che modo e con che strumenti le tre società sosterranno l’assistenza medica dei propri lavoratori, se con sconti per farmaci e prestazioni sanitarie, accessi facilitati ai servizi o fornendo un primo consulto medico online. Una strategia sembra essere quella di sfruttare la tecnologia per fornire un accesso semplificato ed economico ai servizi medici. Per esempio usando piattaforme vocali – come Alexa – per fornire un primo consulto medico. Considerando che il colosso del retail online guidato da Jeff Bezos da diverso tempo spinge anche per la distribuzione dei farmaci, in un ipotetico scenario futuro un americano potrebbe chiedere comodamente da casa un consulto medico al proprio assistente virtuale, comprare eventuali farmaci online e farseli consegnare in giornata. Disruption. D’altra parte la filosofia aziendale di Amazon è proprio questa: distruggere i sistemi tradizionali e crearne di nuovi. Anche nell’healthcare. Ma l’intelligenza artificiale può davvero sostituirsi a un medico o a un farmacista nel primo consulto medico?

Oggi i chatbot sono già utilizzati in diversi contesti, compreso quello medico. Alcuni Paesi come Regno Unito e Australia hanno adottato strumenti detti “symptom checker” per fornire una prima assistenza ai cittadini: una volta inseriti i sintomi, l’algoritmo in risposta darà una serie di ipotetiche diagnosi (da tre a venti) in ordine di probabilità e consiglierà di recarsi al Pronto soccorso, dal proprio medico curante o restare a casa e curarsi con farmaci che non richiedono un obbligo di ricetta (il cosiddetto “triage”).

“Sicuramente meglio di cercare informazioni sul web, non controllate e certificate come fanno molti cittadini” spiega a Linkiesta Federico Cabitza, docente di interazione uomo-macchina presso l’Università degli studi Milano Bicocca, per cui questo sarebbe lo scenario peggiore: “Perché nessuno può garantire la veridicità di quello che un motore di ricerca pure mediato da un assistente virtuale, può restituire. Se invece l’assistente virtuale avesse accesso a una serie di informazioni strutturate, già codificate e certificate da esperti, allora entriamo nel dominio applicativo dei self help triage o self diagnosis triage”.
Meglio, ma sempre con riserva. In una ricerca pubblicata nel 2015 sul Bmj infatti, gli autori hanno recensito tutti gli assistenti virtuali che fungevano da symptom checker, da quelli più famosi ai meno noti. Ne è emerso che anche il migliore era in grado di indovinare la vera diagnosi solo una volta su due. Sbagliando nel 50% dei casi. Nonostante eseguire una diagnosi sia sempre un’operazione incerta anche per gli esseri umani, la probabilità di successo è ovviamente migliore in questo caso.

Il rischio quindi è di incappare in una diagnosi sbagliata o di sottovalutare situazioni gravi, ma anche di favorire il fenomeno della cybercondria: cioè l’ipocondria basata sulle informazioni raccolte sul web. Un disturbo (non grave) per cui una persona davanti a un elenco di diagnosi più o meno probabili tende a pensare di avere quella peggiore. La conseguenza a quel punto è pretendere dal medico curante gli esami che la smentiscano o confermino

Un altro lavoro pubblicato sempre sul Bmj infatti ha mostrato che i medici sbagliano la diagnosi intorno al 10-15% delle volte. “Siamo in un contesto di grande incertezza dove anche un professionista può sbagliare quindici volte su cento – continua Cabitza – ma l’aspetto più preoccupante è che soltanto due volte su tre, intorno al 65% dei casi, il symptom checker era in grado di indirizzare il cittadino che stava veramente male al Pronto soccorso. Anche in caso di sintomi eclatanti come dolore al braccio sinistro e al petto. Nonostante tutto quasi 50 milioni di cittadini oggi usano sistemi simili per capire come comportarsi”.
Il rischio quindi è di incappare in una diagnosi sbagliata o di sottovalutare situazioni gravi, ma anche di favorire il fenomeno della cybercondria: cioè l’ipocondria basata sulle informazioni raccolte sul web. Un disturbo (non grave) per cui una persona davanti a un elenco di diagnosi più o meno probabili tende a pensare di avere quella peggiore. La conseguenza a quel punto è pretendere dal medico curante gli esami che la smentiscano o confermino. Accertamenti che potrebbero non essere necessari. Con un aggravio dei costi per il Servizio sanitario nazionale ma anche un carico di stress inutile per i cittadini, soprattutto quando si tratta di esami invasivi (come quelli che impiegano un liquido di contrasto per esempio). “I symptom checker sono un’arma a doppio taglio – riassume Cabitza – se da una parte facilitano l’accesso a una grande quantità di dati spesso certificata, evitando all’utente di cercare su internet, dall’altra possono portare a conseguenze inattese come maggiore preoccupazione e accertamenti inutili”.

Il mondo oggi è pieno di app o strumenti che sfruttano l’intelligenza artificiale ma che – soprattutto in sanità – non sono stati validati e testati prima. Eugenio Santoro responsabile del laboratorio di informatica medica del dipartimento di Salute pubblica dell'Irccs Istituto di ricerche farmacologiche “Mario Negri” di Milano, racconta che “non c’è ancora un pieno accordo su quale sia la reale efficacia di questi strumenti. Anche perché i protocolli che vengono utilizzati per rispondere alle domande sono tarati su un particolare tipo di popolazione, che non è detto sia rappresentativa per l’utente che utilizza lo strumento. Il rischio è di fornire risposte che non sono coerenti e compatibili con le richieste. È la critica più grossa a questo sistema. Senza dimenticare il discorso della responsabilità, che riguarda tutti gli strumenti tecnologicamente avanzati. Se il sistema sbaglia di chi è la colpa? Dell’azienda che lo commercializza? Di chi ha fornito il software? Di chi ha fornito i dati? Non è ancora chiaro”.

I protocolli che vengono utilizzati per rispondere alle domande sono tarati su un particolare tipo di popolazione, che non è detto sia rappresentativa per l’utente che utilizza lo strumento. Il rischio è di fornire risposte che non sono coerenti e compatibili con le richieste. È la critica più grossa a questo sistema. Senza dimenticare il discorso della responsabilità, che riguarda tutti gli strumenti tecnologicamente avanzati

Anche in Italia ci sono stati i primi esempi di chatbot per il supporto di pazienti con la sclerosi multipla o Hiv, ma si tratta di esperienze pilota senza una reale validazione clinica. Le sperimentazioni che misurano l’efficacia sono ancora rare e sembrano interessare poco le grosse aziende, mentre le istituzioni non forniscono fondi per farlo. “Non si capisce bene chi dovrebbe finanziare questi studi – continua Santoro – chi sembra più interessato al sono le assicurazioni. Non tanto le italiane quanto le americane. Fornire un sistema di intelligenza artificiale come prima base di assistenza può far comodo perché consente di vendere premi più bassi. L’idea è mettere a disposizione livelli di assistenza differenti a seconda di quanto si paghi. La diretta conseguenza è che chi usa strumenti simili viene profilato, cedendo molte informazioni a ci ha la possibilità di accedere ai dati. Vale per tutte le applicazioni che si basano sull’intelligenza artificiale ma qui è peggio perché riguarda la salute”.

In un’epoca in cui viviamo continuamente sotto stress e il tempo è sempre meno le comodità fornite dall’intelligenza artificiale possono fare gola a molti. Chiedere un consulto medico al proprio assistente virtuale è molto più pratico e veloce di recarsi dal medico di famiglia, che spesso neanche si trova. Il rischio però è di introdurre distorsioni di tipo sanitario. “Aprendo le porte a una medicina alternativa che tanto combattiamo” conclude Santoro. “Medico e farmacista hanno una competenza professionale che nessun sistema di intelligenza artificiale avrà mai. Ancora una volta la società tecnologicamente avanzata prova a fare a meno del bagaglio culturale di cui c’è bisogno”.

Sbagliato quindi immaginare che fra qualche anno un software possa diventare così bravo da superare la capacità di un medico in carne ed ossa. E anche pensare che l’efficienza di questi sistemi potrebbe migliorare aumentandone la potenza computazionale. Secondo Cabitza dobbiamo rassegnarci all’idea che l’intelligenza artificiale non può superare certi limiti della nostra conoscenza. “Anche se sta passando l’idea che sia possibile – conclude – ma solo perché la vogliono vendere. Vogliono farci comprare questo genere di strumenti. Sono tutti prodotti che la nuova industria dell’informatica ci fa considerare necessari: crea un bisogno che prima non c’era. Secondo la mia opinione, l’intelligenza artificiale non è nient’altro che un modo per vendere alla classe media, che ha la sensibilità per apprezzarne le potenzialità, i privilegi che un tempo erano dei ceti più abbienti, quali nobili e aristocratici. D’altra parte un’assistente virtuale non è altro che un segretario, la macchina che si guida da sola un autista personale, i symptom checker un medico privato. Ci stanno vendendo una serie di comodità e privilegi tipici delle persone ricche, facendoli adottare a strati sempre più ampi della popolazione. È una scalata continua sociale ai privilegi”.

Potrebbe interessarti anche