Nel Ventunesimo secolo, dichiara John Cheney-Lippold, «noi siamo dati». In altri termini, per praticità, i dati che ci riguardano vengono raccolti, analizzati e usati per dire “chi siamo” alle aziende, ai dipartimenti del governo, alle scuole, alla polizia eccetera. Quello che per loro conta non è tanto come potremmo definire noi stessi nei loro confronti, ma conoscere il nostro “datadouble”.
È importantissimo riconoscere questo dato perché nella vita ordinaria, di tutti i giorni, pensiamo a noi stessi in modo completamente diverso, in base ai ruoli che ricopriamo, o a quella che chiamiamo la nostra “identità”. Ma è facile che il nostro data-double circoscriva quei ruoli o dia un’idea diversa di chi siamo rispetto a quella che vorremmo far passare.
La ragione è che il nostro mondo “digitale” dipende dai dati, è stato datificato. L’idea della datificazione è diffusa, ma viene spesso valutata come un vantaggio indiscutibile. José van Dijck si interroga invece a tal proposito, mettendo a nudo la debolezza che deriva da affermazioni discutibili su ciò che siamo e ciò che sappiamo. In particolare si serve dell’incisivo termine “dataismo” per indicare la «fede nella quantificazione obiettiva e nel potenziale tracciamento di tutti i tipi di comportamento umano».
Il dataismo dà inoltre per scontato che ci si possa fidare della capacità di ricavare, interpretare e condividere i dati raccolti e analizzati. Questa fede e questa fiducia sono estremamente importanti in un mondo in cui la sorveglianza, che usa enormi quantità di dati, è una costante. E questo tipo di sorveglianza non è appannaggio soltanto della polizia, delle autorità responsabili della sicurezza o degli organismi della sanità pubblica, ma anche delle piattaforme che ormai rivestono un ruolo di primo piano nella vita quotidiana e il cui utilizzo diffuso viene ora accentuato dalla pandemia.
Nei Paesi Bassi, sostengono José van Dijck e Donya Alinejad, i temi della fede e della fiducia sono diventati ancora più rilevanti durante la pandemia, a causa della diffusione dei social network come strumento per divulgare informazioni sanitarie e della difficoltà di distinguere tra i canali di informazione istituzionali e quelli provenienti dalla rete. I social network sono una lama a doppio taglio per la comunicazione scientifica, osservano van Dijck e Alinejad, e possono essere usati sia per intaccare sia per facilitare la condivisione di informazioni sanitarie. Dopotutto i social network operano nel mercato delle idee e sono pertanto a caccia di profitti, e questo può contribuire o meno al bene comune. Questa argomentazione si applica ugualmente alla questione della sorveglianza. Fino a che punto possiamo fidarci del fatto che i sorveglianti dei social network – che raccolgono ed elaborano dati più di chiunque altro – facciano la cosa giusta rispetto a quelli sensibili?
Già all’inizio della pandemia l’esperto in materia Rob Kitchin era in grado di prevedere dove saremmo andati a finire. Ha messo in guardia i cittadini, sostenendo che i dati relativi alla sanità pubblica sarebbero diventati rapidamente un campo minato. Preoccupato dal lancio affrettato di tanti strumenti di sorveglianza – app, videocamere termiche, dispositivi indossabili e strumenti predittivi biometrici per il contact tracing, il controllo delle quarantene, il tracciamento degli spostamenti, il distanziamento e la valutazione dei sintomi –, ha messo in dubbio la loro efficacia pratica e ha lanciato l’allarme sui risvolti che avrebbero avuto sulle libertà civili e sulla sanità pubblica. La Lombardia, per esempio, una regione duramente colpita in Italia, ha usato sensori termici montati su droni per redarguire – attraverso degli altoparlanti – coloro che stavano infrangendo le norme e si trovavano in un’area vietata durante il coprifuoco. Ma l’accuratezza dei rilevamenti varia, e la mancanza di consenso solleva questioni legali, sebbene la polizia sostenga di aver ricevuto mandato di esercitare poteri straordinari.
Alcune di queste questioni sono state accennate nel capitolo 2, soprattutto in relazione alle app per il tracciamento dei contatti. Ma l’elenco dei problemi derivati dall’uso delle tecnologie di sorveglianza nella pandemia è molto lungo e comprende: soluzionismo tecnologico, un robusto domain-informed design, test pilota e controlli di qualità, idoneità all’uso, fonti di dati potenzialmente frammentate, copertura e granularità dei dati, qualità dei dati, affidabilità, falsi negativi/positivi. Molti sono direttamente legati ai dati. E, come ha previsto Kitchin, l’utilità di gran parte di queste soluzioni basate sui dati, compresi alcuni strumenti della Public Health Intelligence, è stata sopravvalutata.
La scienza della Public Health Intelligence (Phi) è fondamentale di fronte alla pandemia, per capire cosa succede e cosa succederà. L’Oms conta su un sistema imponente di “allerta globale e risposta” alle epidemie, che raccoglie sistematicamente rapporti ufficiali e voci di sospetti focolai da un’ampia gamma di fonti formali e informali. Quelle formali sono gli enti di sanità pubblica di tutto il mondo, mentre quelle informali sono rappresentate dai media elettronici e dai gruppi di discussione online. L’obiettivo della Phi è di individuare tempestivamente “eventi” di interesse sanitario mentre avvengono o addirittura prima che si verifichino. Tuttavia è di fondamentale importanza che non venga data priorità alle fonti informali piuttosto che a quelle formali e convenzionali.
Nel 2008 Google ha fatto audaci previsioni sulle epidemie di influenza, sostenendo di poter dire dove e quando si sarebbero verificati i loro picchi meglio dei Centers for Disease Control statunitensi (Cdc). L’idea era semplice, quasi disarmante. Google ha accesso a milioni di ricerche e, quando le persone cominciano a cercare online quali siano i sintomi o i mezzi per curare l’influenza, il volume e la tipologia di queste ricerche può essere tracciato in modo da individuare dove si trovino i focolai. Comparando le informazioni sul tracciamento dell’influenza, Google è riuscito a stimarne con precisione la diffusione due settimane prima dei Cdc.
“Google Flu Trends” è andato avanti così per diversi anni, per poi fallire inaspettatamente quando nel 2013 non è riuscito a prevedere il picco di casi dell’influenza, sbagliando del 140 per cento. Un articolo pubblicato da Science l’anno seguente151 ha sostenuto che gli errori venivano all’assunto che i metodi di Google fossero migliori di quelli tradizionali e che quindi potessero soppiantarli. A sua volta l’idea si collegava alla “hybris dei Big Data” e alla “dinamica degli algoritmi”. Alla prima abbiamo già accennato: il problema stava nell’eccessiva fiducia nei dati di Google. Il secondo punto, la dinamica degli algoritmi, si riferisce sia agli interventi degli ingegneri per migliorare il servizio commerciale, sia alle azioni degli utenti che si avvalgono del servizio. Pertanto il panico dei consumatori potrebbe aver alterato i numeri, ma più probabilmente, sostengono gli autori dell’articolo, la responsabilità degli errori risiede nella confusione tra i sintomi del raffreddore e quelli dell’influenza. Cercando di migliorare il servizio clienti, Google ha finito per generare dati in modo diverso. Se ne traggono diverse lezioni per il futuro: una è controllare l’algoritmo, e un’altra è non dare per scontato che siano sufficienti semplicemente le dimensioni dei “Big Data” per garantirne il successo.
da “Gli occhi del virus Pandemia e sorveglianza”, di David Lyon, Luiss University Press, 2022, pagine 217, euro 16