In attesa del vaccino, più efficaci della quarantena di massa decisa da Cina e Italia e ora imitata da altri, più accettabili della immunità di gregge agitata da Boris Johnson e subito ritirata, ci sono i Big Data. Che sono un concetto in realtà antico, divenuto però pratico e definito negli anni ’90, non senza qualche rischio potenziale incisivamente espresso in un famoso film del 2002 diretto da Steven Spielberg e liberamente tratto da un racconto di fantascienza di Philip K. Dick: Minority Report.
Ma in questo momento più che ai fantasmi si pensa ai morti. I già troppi che sta provocando il coronavirus in tutto il mondo, e i sorprendentemente pochi che sta facendo in alcuni Paesi che invece stavano giusto a ridosso della Cina. Non solo la Corea del Sud: che pure resta il sesto Paese al mondo per contagiati, ma con una mortalità di appena l’1 per mille. Giappone e Malaysia hanno avuto a loro volta meno contagi dei principali Paesi dell’Europa Occidentale e degli Usa, Singapore meno del Brasile, Hong Kong meno del Lussemburgo, addirittura Taiwan meno di San Marino! Il metodo sud-coreano è stato esaltato addirittura dal Manifesto: quotidiano comunista che forse sarebbe eccessivo dire è più abituato a lodare la sanità nord-coreana, ma certamente in genere indica a esempio quella cubana. «Imbarazzante il paragone con l’Italia. 8 mila casi contro 15 mila, 71 morti contro oltre mille», scriveva venerdì 13 (absit iniuria diei).
Al contempo, dall’altra parte dell’arco politico l’esempio di Seul sta facendo impazzire Zaia, che chiede anche da noi «leggi per tracciare i movimenti dei telefonini». L’uso dei cellulari è la cosa che ha fatto più impressione di un sistema in realtà più sofisticato, sviluppato dopo lo scandalo dell’epidemia di Mers che nel 2015 aveva fatto 38 morti e 200 contagi, rivelando l’assoluta impreparazione del sistema sanitario locale. Invece di limitarsi a recriminare, i sud-coreani fecero la riforma che già nel 2016 si rivelò efficacissima contro l’epidemia di zika. Un aspetto importante del sistema è anche una rete di stazioni mobili per i test, visite nelle abitazioni e punti di controllo in strada per gli automobilisti che ha permesso di fare la cifra record di 240 mila tamponi in un mese e mezzo, limitando i rischi di contagio che operatori e altri pazienti avrebbero corso a farli in ospedale. Una volta individuati i contagiati, i loro movimenti e transazioni sono stati resi pubblici attraverso un sistema centralizzato con tecnologia Gps, telecamere di sorveglianza e, appunto, app. La app «Corona 100m», in particolare, è scaricabile da tutti, e permette a chiunque di sapere col proprio telefono dove si trovano aree o edifici con persone contagiate.
Attenzione, però: le app non erano che uno strumento. Al servizio, appunto, dei Big Data: torniamo sul concetto. Senza puntare troppo sui cellulari, Taiwan ha a sua volta ottenuto risultati strepitosi combinando i database di immigrazione e dogana con l’archivio nazionale del sistema sanitario. L’identificazione dei singoli casi è avvenuta in tempo reale, comparando i sintomi clinici con la raccolta dati dei viaggi del paziente e dei suoi familiari. E anche Singapore ha seguito un metodo del genere, dopo aver messo in quarantena e poi chiuso le frontiere a tutti i viaggiatori provenienti dalla Cina.
Ovviamente in Italia la privacy è percepita in modo diverso che in Asia, dove anche nei Paesi più liberali come Corea del Sud, Taiwan o il Giappone c’è un senso confuciano della comunità fortissimo. Però ad esempio in Israele lo Shin Bet si è messo a sua volta a monitorare i movimenti dei positivi al coronavirus sulla base di un database creato nel 2002 per combattere il terrorismo. Milioni di dati su spostamenti e orari di tutti i possessori di un telefonino che aggancia la rete telefonica di Israele sono stati messi a disposizione sui autorizzazione della Knesset per un periodo di emergenza di 30 giorni. Ma, appunto, questi dati già c’erano. L’eccezione è servita solo per dare il permesso di utilizzarli.
E torniamo dunque al concetto di Big Data. Che significa? Semplicemente la possibilità di utilizzare una gran quantità di informazioni in modo da avere una rappresentazione esatta della realtà; non quella indotta e approssimata che deriva da un campionamento statistico. Quest’ultimo è ad esempio il caso di un sondaggio elettorale. I Big Data sono proprio i risultati dell’elezione. Il termine fu lanciato negli anni ‘90 da John Mashey, noto guru dell’Informatica. Una buona spiegazione ne hanno dato il docente dii Oxford Viktor Mayer-Schönberger e l’analista dell’Economist Kenneth Cukier in un libro del 2013: Big Data: A Revolution That Will Transform How We Live, Work and Think, pubblicato in italiano con il titolo più minaccioso di Big Data Una rivoluzione che trasformerà il nostro modo di vivere e già minaccia la nostra libertà.
L’anno prima i Big Data erano stati al centro del Forum di Davos, che comunque da allora ha continuato a seguirli con attenzione. Proprio quel libro ci informa che grazie ai Big Data si è scoperto che le auto di colore arancione hanno meno difetti delle altre. Come gli automobilisti che fanno il pieno intorno alle quattro del pomeriggio spendono quasi sempre nell’ora successiva tra 35 e 50 dollari in un supermercato o in un ristorante. Che nei campionati di sumo la proporzione di combine aumenta nelle ultime gare. E anche che in previsione di un uragano aumentano non solo le vendite di torce elettriche, ma anche quelle di merendine dolci. Come mai? In qualche caso, una volta individuato il fenomeno la spiegazione è ovvia. Nei campionati di sumo, ad esempio, per mantenere ranking e guadagni un lottatore deve vincere la maggioranza delle 15 gare in calendario, per cui verso la fine chi si è già aggiudicato almeno 8 incontri ha meno spinta a impegnarsi di chi sta a quota 7 vittorie e 7 sconfitte. E il sapore dolce aiuta a combattere l’ansia, riempiendo l’organismo di calorie per affrontare l’emergenza. In altri casi, pur lavorando di fantasia, è difficile arrivare a una certezza. Ma nel mondo del Big Data, il perché non conta più. Quello che importa è il cosa.
La grande quantità, infatti, a un certo punto fa scattare una vera e propria rivoluzione epistemologica, così come avvenne quando si passò dal manoscritto al libro stampato. E il punto di passaggio è appunto stato nel primo decennio del nuovo millennio. Nel 2000, in particolare, il 75 per cento delle informazioni immagazzinate nel mondo era ancora di tipo analogico: giornali, libri, stampe fotografiche, eccetera. E solo il 25 per cento era digitale. Ma nel 2007 l’analogico era sceso al 7, e il digitale era diventato il 93 per cento. E nel 2013, anno del libro, eravamo arrivati al 2 per cento analogico contro il 98 per cento digitale. Attenzione, però! Non è che la massa delle informazioni analogiche in senso assoluto sia diminuita in questa proporzione. È l’informazione digitale che è esplosa: ognuno di noi è oggi investito da un «diluvio digitale» pari ad almeno 320 volte le informazioni immagazzinate nella Biblioteca di Alessandria. Una volta proprio l’abbondanza di informazioni costringeva a ricorrere al campionamento, base della statistica. Ma adesso le nuove tecnologie permettono di utilizzare tutto l’universo delle informazioni disponibili. È la «fine della teoria, la correlazione basta e avanza». Appunto, la massa degli scontrini emessi da Walmart, per cui nei punti vendita si è iniziato a impilare scatole di merendine accanto alle attrezzature anti-uragano. Facendo affari d’oro.
In teoria, il sistema dei Big Data era utilizzabile anche in passato. Tra le molte storie raccontate da Mayer-Schönberger e Cukier c’è quella di Matthew Fontaine Maury: ufficiale della marina statunitense che, bloccato a un lavoro di ufficio da un incidente, comparò i dati dei libri di bordo custoditi nel suo archivio per scrivere una monumentale Physical Geography of the Sea che permise di ottimizzare il sistema delle rotte oceaniche. Ma oltre certi limiti i Big Data dati erano difficile da gestire, e proprio per maneggiare i dati dei censimenti Usa nel 1887 fu inventato il sistema delle schede perforate: primo passo del percorso che ha portato alla rivoluzione dei nostri giorni. Una rivoluzione, avvertivano gli autori, gravida di promesse, ma anche di rischi. Uno scenario alla Orwell o alla Dick poteva ad esempio essere intravisto nel modo in cui a New York i Big Data erano stati utilizzati per individuare gli stabili dove più probabilmente si era proceduto a un’illegale frammentazione delle unità abitative, con conseguente grave rischio di incendio.
Orwell e Dick a parte, un approccio positivo al fenomeno potrebbe guardare alla profezia di Teilhard de Chardin sulla noosfera. La rete nervosa planetaria in cui secondo il grande gesuita paleontologo si sublimerà la fratellanza tra gli uomini, e che rappresenterebbe il secondo passo di quella «legge della complessità crescente» attraverso cui dal primo momento organico della biosfera l’evoluzione arriverà al terzo e definitivo momento del «punto Omega»: quello in cui convergono le categorie del «Cristo universale» e del «Cristo cosmico». Insomma, l’uomo che scopre di non essere altra cosa se non l’evoluzione divenuta cosciente di sé stessa.
Oppure si potrebbe pensare alla Psicostoriografia posta da Isaac Asimov alla base del suo Ciclo della Fondazione: una «scienza del comportamento umano ridotto ad equazioni matematiche» che permetterebbe di prevedere la Storia futura. Uno scenario del genere attorno al 2014 fu presentato da Kalev Leetaru: altro guru dei Big Data, e collaboratore di Foreign Policy. La sua creatura era Google Big Query, uno strumento in grado di cercare in fonti da oltre 100 lingue per raccogliere dal 1979 in poi i dati che sono poi confluiti nel The Global Database of Events, Language, and Tone (Gdelt), reperibile su Google Cloud Platform. Fu lui stesso a spiegare che erano stati proprio i romanzi di Asimov a dargli l’idea, e che questa possibilità di mettere a confronto 250 milioni di informazioni in pochi minuti avrebbe permesso appunto di prevedere la Storia. L’Università dell’Illinois, però, dopo averlo assunto come docente lo ha cacciato, accusandolo di aver truccato i dati per far filare le sue previsioni. E il progetto di nuova Psicostoriogafia è stato dunque per un po’ screditato.
I Big Data, però, in Africa avevano già permesso di prevedere la direzione di espansione dell’epidemia di Ebola verso il Senegal, semplicemente accostando in tempo reale ai dati sui ricoveri quelli su voli aerei, menzioni sulle reti sociali e chiamate al cellulare. Già nel 2014 l’efficacia di questo sistema era stato trattato dai giornali, anche se era rimasto un po’ confinato nelle pagine per specialisti. E dopo altri buoni risultati con zika e cancro poco più di un anno fa Il National Geographic di aveva fatto un grosso servizio. «Come possono i Big Data sconfiggere una grande malattia?», era la domanda. Una clamorosa profezia: anche se non di quanto sarebbe stata grande la malattia e spettacolare la vittoria.