Scienza e big dataMetti parrucca e baffi ai Big Data, ed esce Einstein

Metti parrucca e baffi ai Big Data, ed esce Einstein

I big data sono il nuovo Newton, il nuovo Einstein. Da quando Chris Anderson ha pubblicato l’articolo sull’obsolescenza del metodo scientifico, la polemica non si è ancora esaurita. Più che di controversia forse bisognerebbe parlare di speranza, o di auspicio, o di progetto. Alcuni degli interventi programmati per il Data Science Summit che si terrà in California i prossimi 4 e 5 dicembre, a Redwood City, tornano a insistere sulla questione. Il taglio di Anderson era piuttosto brutale: dati e macchine se la caveranno addirittura meglio di noi, dal momento che il loro pensiero non è intralciato da vincoli come il significato delle teorie o la verosomiglianza dei risultati raggiunti. Si accontentano delle relazioni, e hanno la strada spianata verso il successo.

Anderson evoca l’apparato concettuale della fisica quantistica e le scoperte biologiche sull’ereditarietà dei caratteri acquisiti per mostrare che semantica e buon senso si frappongono come ostacoli al libero sviluppo della scienza. Il requisito del significato blocca l’accoglienza di tesi che sono corrette ma che non sono accondiscendenti con il nostro senso di evidenza interpretativa; quello del buon senso invece blocca le scoperte più rivoluzionarie sotto il giogo della tradizione e delle abitudini. Tutte deficienze umane che le macchine aggirano senza difficoltà.

La chiarezza del problema cresce se si passa all’ambito delle scienze sociali (e del marketing): lo prova il famoso caso delle pop-tart e degli uragani. I responsabili della scoperta sono WalMart e la sua spregiudicatezza nell’incremento del fatturato a qualunque costo. Nel 2004 la catena di grandi magazzini americana commissiona un’indagine per scoprire quali sono i prodotti più venduti nel momento in cui una zona viene davvero minacciata dall’arrivo di un tifone. Dall’analisi emergono alcune risposte banali, come acqua, torce, fornelli da campo. Ma la sorpresa è che nessuno di questi oggetti rappresenta l’articolo più venduto. La palma del vincitore spetta ad un dolce della Kellog, le pop-tart, composto da due valve di biscotto e un ripieno cremoso, che deve essere scaldato nel microonde prima di essere consumato. La ragione per cui l’emergenza meteorologica dell’uragano scateni il bisogno di pop-tart prima ancora dell’acqua, della luce e dei generi di prima necessità, giace nel mistero più profondo. Ma se si ignora la velleità di questo interrogativo e si coglie la relazione tra bufere e dolci della Kellog per quella che è, si abbraccia la verità del mondo con fiducia e ci si riempie il portafogli.

Se si accetta di lasciar riposare il mondo nel suo non-senso, anche il conto in banca sorride. La grande lezione dei big data agli scienziati in carne ed ossa passa di qua, quasi con una venatura di saggezza zen. Ma visto che siamo Occidentali, la prova empirica è necessaria. Schmidt e Lipson si sono cimentati nella verifica nel 2009, e nell’aprile di quell’anno Science ha pubblicato l’articolo in cui hanno descritto l’algoritmo capace di dedurre gran parte delle leggi della fisica classica da un archivio di dati. Questo risultato è stimato ancora oggi come uno dei migliori risultati della tecnologia dei big data dai sostenitori dell’auspicio che le macchine presto subentrino alla comunità scientifica nella ricerca della verità: l’edizione 2012 (pubblicata nel 2013) della summa sui big data di O’Reilly, continua a citare il saggio di Schmidt e Lipson come una delle prove fondamentali del ruolo che bisogna assegnare ai nuovi archivi di informazioni nella società contemporanea.

Quella che poteva essere una provocazione da parte di Anderson si è comunque trasformata in un vero argomento di discussione che prosegue ancora oggi. In vista del congresso di dicembre, John Funge ha ripreso il filo del discorso sostenendo che la distanza esistente tra il livello tecnologico attuale e le richieste di intelligenza e di scoperta rivolte alla comunità scientifica è solo un effetto dell’immaturità di questa branca dell’informatica. Insomma, è solo questione di tempo. Dobbiamo crederci, il cervello è il vero modello di super-computer che possiamo osservare; occorre solo riprodurre la quantità massiva di connessioni di cui sono capaci i neuroni.

Per questo obiettivo Ray Kurzweil ci dà appuntamento tra circa trent’anni. Se siete impazienti, la buona notizia è che il vate della singolarità da circa un anno lavora in Google come capo degli ingegneri – e la sua stima ha già cominciato ad accorciarsi. Dare un’occhiata alle server farm di Mountain View solletica l’ottimismo e tende a ispirare promesse di largo respiro anche sui progetti più fantascientifici. Solo pochi anni ci separano dal momento in cui anche i chip di silicio vanteranno una personalità individuale, inclinazioni soggettive e un’aspirazione all’irripetibilità della propria impronta nella storia universale.

Christian Madsbjerg e Mikkel Krenchel però sembrano concordare con Noam Chomsky sull’opportunità di lasciare che la polvere degli scaffali della letteratura divori certa fantascienza. Nel loro paper introduttivo alla conferenza di Redwood riprendono la constatazione di Michael Hanlon che negli ultimi decenni non è stato compiuto nessun vero passo avanti nella spiegazione scientifica di cosa sia la coscienza. D’altra parte non è possibile raggiungere alcun risultato di qualche interesse se ci si ostina a decapitare il concetto di informazione al confine del foro interiore, ai soli archivi e ai processi neuronali, escludendo la componente di contesto sociale e naturale in cui maturano gli interessi, le domande, i giudizi di rilevanza.

La riduzione del significato al dato, o la sua completa espulsione dal dominio della ricerca scientifica, equivale a un impoverimento radicale sia della nostra concezione del sapere, sia dei progetti di ricerca che decideremo di finanziare. Bruno Latour ha insegnato a vedere una connessione necessaria tra Hobbes e Boyle: senza una visione della società liberata dal mandato teologico, non può esistere nemmeno l’oggettività della prova del laboratorio svincolata dal principio di autorità. Senza la collettività umana del contratto sociale non emerge la verità pubblica della teoria scientifica. Ma soprattutto, senza la comunità dei ricercatori non prende vita l’universo di interessi, di grammatiche e di logiche della scoperta, che hanno reso possibile la forma di sapere che chiamiamo scienza. Sotto questo riguardo non siamo dissimili da qualunque cultura che etichettiamo come primitiva.

Popper ci ricorda che le asserzioni, in fondo, restano sempre e solo congetture: la pienezza dei contenuti è sempre un azzardo che prima o poi dovrà essere revocato. La confutazione, la ricerca ostinata della contraddizione, che fa crollare il vecchio sistema ed esige una nuova proposta di verità, è la vera sede della scienza. Perché la ricerca è il luogo in cui chiunque può sfidare giganti come Galileo, Newton, Einstein, e vincere la sua partita. Può contraddire i nomi scolpiti sotto le statue di marmo nei parchi e nei corridoi delle università, può accusare leader politici, economici e religiosi, di parlare e di decidere secondo assunti falsi – e uscire vincitore dal dibattito. Anche se il finale della partita si dovesse consumare abbracciando il palo in mezzo ad un rogo per eretici, la menzione d’onore nella storia della scienza sarebbe sempre una bella soddisfazione. No?

La scienza è anzitutto la pratica della libertà, del diritto di asserire la verità al di fuori di ogni interesse di potere. Le macchine sapranno mai qualcosa di tutto ciò?

X