Big data sono «grandi volumi di dati ad alta velocità, complessità e variabilità che richiedono tecniche e tecnologie avanzate per la raccolta, immagazzinamento, distribuzione, gestione e analisi dell’informazione». Così li definisce un rapporto consegnato al Congresso degli Stati Uniti nell’agosto del 2012. Il settore sanitario è uno di quelli che storicamente ha generato la maggior quantità di dati, per diversi motivi, come la tenuta dei registri, la conformità e i requisiti normativi e la cura dei pazienti. La speranza è che questa grande quantità di dati, una volta interpretati, possa implementare tutta una serie di attività, dal miglioramento della qualità dell’assistenza sanitaria con concomitante riduzione dei costi, al supporto delle decisioni cliniche, sorveglianza delle malattie, e gestione della salute pubblica. «Alcuni rapporti affermano che i dati del sistema sanitario degli Stati Uniti da soli hanno raggiunto, nel 2011, 150 exabyte. A questo ritmo di crescita raggiungeranno presto lo zettabyte e poco dopo lo Yottabyte» spiegano su Health Information Science and Systems Wullianallur e Viju Raghupathi della Graduate School of Business, Fordham University, di New York, in un lavoro pubblicato nel 2014.
Nel settore sanitario quindi siamo di fronte a set di dati complessi dal volume enorme. La cui difficoltà principale nell’interpretazione risiede sia nell’impossibilità di usare strumenti tradizionali per analizzarli, sia nella diversità dei tipi di dati e nella velocità con cui devono essere gestiti. Tutto ciò che riguarda l’assistenza sanitaria del paziente e il suo benessere va a rimpinzare il calderone dei big data nel settore sanitario, dai dati provenienti dai sistemi di supporto alle decisioni cliniche (note e prescrizioni scritte del medico, immagini di imaging, dati di laboratorio, farmacia, assicurazioni e altri dati amministrativi), ai dati delle cartelle cliniche elettroniche e quelli generati dagli strumenti (come per esempio il monitoraggio dei parametri vitali) ma anche i messaggi di social media, blog , aggiornamenti di stato su Facebook e altre piattaforme, e le pagine web.
Questo immenso mare di dati rappresenta per gli scienziati un’opportunità unica. Analizzarli e scoprire associazioni, creare modelli e comprendere tendenze può infatti, in definitiva, migliorare l’assistenza, salvare vite umane e ridurre i costi. Possono servire infatti per prendere decisioni più informate, o permettere di sviluppare diagnosi e trattamenti più approfonditi, con un miglioramento della qualità delle cure e una riduzione dei costi.
Per esempio analizzando le caratteristiche del paziente e i costi e gli esiti delle cure, è possibile identificare il trattamento migliore dal punto di vista economico e clinico. O ancora analizzando i profili dei pazienti è possibile individuare quei soggetti che necessitano di cambiamenti di stili di vita in via preventiva. Su larga scala si può monitorare l’andamento e la diffusione di una malattia per formulare previsioni e fissare interventi di prevenzione e supporto. Infine dall’insieme di diversi dati si possono identificare i pazienti per l’inclusione in studi clinici, e così via. Secondo una stima della società McKinsey l’analisi dei big dati potrebbero far risparmiare agli Stati Uniti, circa 300 miliardi di dollari all’anno per l’assistenza sanitaria, due terzi dei quali attraverso la riduzione di circa l’8% della spesa sanitaria nazionale. «Le operazioni cliniche e ricerca e sviluppo sono due delle tre aree più interessate – oltre alla sanità pubblica – a un potenziale risparmio grazie ai big data, con 165.000 milioni dollari e 108 miliardi dollari che rispettivamente, ogni anno, vanno sprecati. I big dati potrebbero contribuire a ridurre sprechi e inefficienze in questi settori».
Sono ancora diversi però i problemi relativi ai Big data. A iniziare con la privacy, passando con l’incapacità a volte di saper analizzare i dati accumulati, per finire con il margine d’intervento dato agli esseri umani negli algoritmi che devono interpretare e gestire i dati. Qualcuno infatti inizia a chiedersi se questi algoritmi debbano essere super visionati da un occhio umano e a tal proposito di recente è nata una nuova branca di studi chiamata “algorithmic accountability” come riporta il New York Times. Gli esperti insomma vogliono metterci il naso e vedere come questi programmi raccolgono e analizzano i dati. Perché, soprattutto in medicina, se l’algoritmo sbaglia come si fa? L’Ibm per esempio, sta perfezionando un programma di algorithmic accountability chiamato Watson Paths, per Watson, il famoso calcolatore che dovrebbe aiutare i medici a prendere decisioni cliniche complesse, basandosi sulla sua capacità di attingere a milioni di documenti medici ogni minuto, raccogliendo i dati molto più velocemente di quanto un essere umano potrebbe mai fare. Il programma dovrebbe permettere ai medici di vedere i percorsi di deduzione utilizzati da Watson per raggiungere le sue conclusioni. Secondo alcuni però offrire alle persone la possibilità di interferire nei sistemi algoritmici potrebbe introdurre un difetto di pregiudizio umano. La promessa delle decisioni basate sui big data, dopo tutto, è proprio questa, che siano prese sulla base di dati e analisi producendo risultati migliori. C’è da dire però, che forse uno sguardo umano in grado di fornire quella sfumatura che sfugge all’automa algoritmico, potrebbe far sì che la combinazione dei due funzioni meglio del solo l’algoritmo.