Il 6 febbraio Massimo Marchiori ha presentato all’università di Padova il nuovo motore di ricerca Volunia: Linkiesta ha già proposto una descrizione completa delle funzioni illustrate durante la conferenza stampa ai giornalisti.
Il fatto che un progetto così ambizioso sia stato ideato e sviluppato in tutte le sue parti in Italia rappresenta di per sé un’ottima notizia. Inoltre, il nome del suo autore è uno di quelli che merita rispetto e gratitudine universali, fuori e dentro il nostro Paese. Nell’elenco delle sue gesta brillano due episodi che da soli dovrebbero avergli assicurato fama e incarichi istituzionali di peso ben maggiore rispetto a quelli che le circostanze gli hanno consegnato.
Nel 1997 Marchiori ha pubblicato il primo articolo che introduceva la tecnica della “link analysis” per i motori di ricerca, il modello concettuale da cui è germinato lo sviluppo dell’algoritmo PageRank e del nucleo originario di Google. Per il W3C ha partecipato ai lavori del primo team di sviluppo del progetto XML Query, incaricato di formulare gli standard internazionali per le ricerche nei documenti XML.
Forse però il suo merito maggiore coincide con la sua ostinazione, o secondo i punti di vista con la sua tenacia, che lo ha costretto ad elaborare un progetto di avanguardia in Italia, e per di più intorno all’ambiente accademico italiano: secondo le sue dichiarazioni, lo scopo era quello di plasmare un nuovo modello di motore, mostrando il prototipo di ciò che potrebbero diventare tutti i dispositivi di ricerca tra qualche tempo. Credo che la caparbietà di Marchiori sia un’icona dell’eroismo italiano, in cui si congiunge l’altezza disperata del talento individuale e l’ottusità provinciale di tutto il sistema istituzionale che lo circonda.
La sera stessa della conferenza stampa, una delle testate più autorevoli di SEO, Search Engine Land, ha pubblicato una recensione di Volunia, esaminando nel dettaglio le funzioni descritte durante l’incontro con i giornalisti. La novità reclamata dal team di Marchiori viene circoscritta a limiti più ristretti per ciascuna delle soluzioni esposte nella presentazione: le mappe di navigazione dei siti erano state introdotte da Ask.com già nel 2004, le ricerche dei file multimediali vengono già proposte da Google nella configurazione della “universal search”, l’interazione con gli altri utenti che navigano nel sito era stata offerta da Google con il servizio Sidewiki nel 2009.
L’autore, Sean Carlos, solleva anche alcuni dubbi rispetto ai problemi di privacy che sembrano essere ignorati da Volunia, nonostante le polemiche che negli ultimi anni hanno imperversato su questo tema; e sembra nutrire anche un certo scetticismo rispetto allaquantità di pagine che potranno essere indicizzate dal nuovo dispositivo italiano, data l’espansione fuori controllo del web negli ultimi anni.
Non credo però che le criticità elencate da Search Engine Land siano le più gravi. Lo sviluppo del progetto è cominciato quattro anni fa, quando Facebook cominciava appena il suo decollo internazionale e la diffusione di iPhone era agli inizi. Quello che Battelle definisce “il paradigma tradizionale della ricerca” godeva ancora di ottima salute. Già allora Google era molto cambiato rispetto ai primi passi del PageRank, perché il contatto con la realtà aveva imposto agli sviluppatori di Mountain View una serie di problemi e di opportunità che non si presentano quando il software viene elaborato con il solo pensiero. La difficoltà di disambiguare le stringhe di interrogazione e l’occasione di offrire pubblicità profilata hanno sollecitato il lavoro di registrazione delle query e quello di personalizzazione delle risposte.
Se un utente scrive “polo” nel box di ricerca cosa starà cercando? Un’automobile? Un indumento? Un famoso viaggiatore? Un punto geografico? L’analisi delle reazioni di tutti coloro che hanno già imputato la domanda, e la conoscenza delle preferenze individuali registrate nella “web history” personale, hanno permesso a Google di affinare la comprensione delle esigenze informative del pubblico offrendo risposte sempre più pertinenti anche a formulazioni lacunose.
Il confronto con la fioritura delle “content farm” ha indotto gli ingegneri di Mountain View a progettare un meccanismo di ranking del tutto nuovorispetto a Page Rank, con l’introduzione di Panda nel corso del 2011; il successo dei social media ha richiesto che l’intera concezione della ricerca e del calcolo della rilevanza dei siti venisse riconsiderata. Google è passato dall’analisi del grafo dei link, di cui è debitore almeno in parte a Marchiori, al grafo sociale degli individui – di cui registra le preferenze esplicite e la capacità di influenzare gli altri o di esserne influenzati, come fa Facebook.
Danny Sullivan riepiloga con la metafora del voto questo percorso. Google ha partecipato in maniera essenziale alla costruzione di Internet non perché è emerso da una geniale congettura di pensiero, ma perché la sua esistenza ha prodotto sul pubblico e sulle tecnologie conseguenze reali.
Il fatto che Google funzionasse bene ha motivato individui e aziende a creare nuovi contenuti, perché sapevano che sarebbe stato possibile per gli utenti interessati trovarli e usarli. L’espansione smisurata di Internet è stata anche una conseguenza della convinzione che la Rete fosse il luogo in cui si può sempre trovare quello che si cerca, e dove qualunque contenuto raggiunge direttamente il pubblico giusto; ma una certezza del genere può sorgere solo con la presenza di motori del calibro di Google. Sono loro ad aver diffuso la convinzione che esista una risposta per qualunque domanda, e che esista anche un diritto per tutti di ottenerla.
Poco più di una decina di anni fa, quando ero studente, il 99% di quello che oggi viene cercato sui motori online era considerato un crampo mentale solitario e (auspicabilmente) passeggero, senza alcuna dignità di pubblicazione.
Nonostante il contributo decisivo offerto allo sviluppo di Internet, Google si trova oggi a doversi confrontare con una realtà della Rete che ha mandato in pezzi il paradigma classico della ricerca. L’esperienza on-line degli utenti non spazia più su una nebulosa di pagine cresciute senza alcun ordine, ma libere e aperte ad un’esplorazione pubblica, come accadeva fino quattro anni fa.
Da un lato i social media hanno recintato i loro dati, sottraendo le conversazioni all’archiviazione dei motori di ricerca. Facebook e Twitter hanno negato l’autorizzazione alla presentazione dei loro contenuti sui listati di risposta di Google; eppure nelle loro pagine si compongono centinaia di milioni di nuovi post ogni giorno, e si snodano le cascate di informazioni da cui emergono i memi della Rete e alcuni dei processi di influenza dell’opinione e del comportamento più rilevanti della nostra epoca. La risposta di Google è consistita nel costruire il proprio social media, Google+, i cui profili sono l’infrastruttura principale di un nuovo calcolo compiuto dal motore: quello del grafo sociale e del ranking di autorevolezza individuale. La personalizzazione dei listati di risposte fondata su Google+ ha scatenato un’ondata di reazioni negative da parte di tutta la comunità degli analisti dei new media. Google è diventato cattivo, non è più il giudice imparziale della rilevanza che caratterizza i contenuti censiti.
Dall’altro lato, la sfera dell’accesso mobile a Internet è mediato dalle applicazioni per gli smartphone: sia quelle sviluppate per iPhone, sia quelle destinate al mercato Android, sono un terreno precluso alla ricognizione dei bot e all’archiviazione dei motori di ricerca. Secondo l’ultimo report Audiweb nel dicembre 2011 più del 20% degli individui tra gli 11 e i 74 in Italia accedeva a Internet tramite smartphone o PDA: la connessione mobile vanta il trend di crescita più alto tra tutte le forme di esperienza digitale.
Internet non è più la distesa disordinata e infinita dei contenuti aperti, e la ricerca non può più aspirare ad essere la forma di organizzazione universale dei contenuti pertinenti ad una domanda, capace di disporli secondo l’ordine di rilevanza rispetto all’esigenza informativa dell’utente. Questo paradigma della ricerca è tramontato. Eppure l’intero progetto di Volunia sembra non essersene accorto.
Per sapere che il mondo cambia – e che è effettivamente cambiato – non ci si può chiudere nel proprio pensiero per anni con lo scopo di trovare una formula intellettuale perfetta. Bisogna costruire in fretta la migliore versione beta possibile e strofinarla contro la rudezza della passione degli utenti per le curiosità insensate. Gli utenti reali sono stupidi e chiedono sciocchezze – ma questo è un tabù per chi è immerso nella cultura accademica italiana, e nel corso della presentazione di Marchiori l’utente modello cerca soltanto il sito della NASA. Per l’università in Italia la realtà intera è un tabù, il confronto con la banalità delle domande insensate è spregevole, il contatto con la spazzatura dei social network una minaccia di inquinamento. Eppure sono i motori di ricerca veri ad aver creato le condizioni per questa realtà – e il merito di Google è stato quello di distillare da questa montagna di idiozie un dispositivo di intelligenza pura – nel senso in cui l’intelligenza sa discriminare la rilevanza da ciò che è inutile e con questa costruire un mondo concretamente abitabile e una forma di vita che gli dia un senso.
Questo percorso, che conduce dall’analisi dei contenuti e dei link alla storia del pubblico, dalla storia complessiva del pubblico alla storia digitale di ciascuno, dalla storia personale alle relazioni sociali, all’influenza delle comunità, all’importanza dei testi nelle loro interazioni, in Volunia non appare da nessuna parte. Il progetto sembra fuori dal mondo – un mondo modellato per un quoziente molto significativo dai motori di ricerca reali, e di cui il progetto Volunia sembra ignorare i nodi critici essenziali.
È ingiusto riferire queste considerazioni al progetto di Marchiori, che contro l’abitudine di molti suoi colleghi si è impegnato in prima persona e ha concretizzato fino in fondo il suo progetto intellettuale e commerciale. È ingiusto anche osservare che la nascita di Google ha richiesto 1 anno di lavoro contro i 4 di Volunia, perché è imbarazzante la differenza di mezzi finanziari e tecnici a disposizione di qualunque studente di Stanford rispetto a quello che in Italia è concesso persino ad una personalità di valore eminente e comprovato come Marchiori. Ma visto che l’obiettivo dichiarato era fornire un modello per ciò che dovranno diventare in futuro i motori di ricerca – esponendo una descrizione di servizi che ignora apertamente i punti chiave della crisi del paradigma di ricerca classico – non si può evitare di rimarcare accanto ai meriti altissimi del ricercatore, la provincialità di una cultura accademica che ha deciso di ignorare il mondo in cui vive.
La grandezza di Google non abita nella raffinatezza degli algoritmi che usa, ma nell’ethos di un progetto che si è intrecciato in modo spregiudicato e geniale con l’attualità antropologica del mondo contemporaneo: è questo il merito degli uomini come Steve Jobs, come Page e Brin, come Zuckerberg, ed è la ragione per cui Foreign Policy li colloca tra i 100 personaggi più influenti del mondo mentre esclude dalla lista quasi tutto il mondo accademico.
Per un dibattito serio sul tema rinvio all’articolo di Jacopo Barigazzi, mentre a me tocca solo osservare che è nella sfida concreta con i problemi e con l’immane stupidità del mondo che Google ha tracciato un nuovo percorso sui binari della logica contemporanea, creando i nuovi significati e i nuovi giochi linguistici che un Wittgenstein redivivo avrebbe amato, studiato ed esaltato con tutta la potenza della sua prassi filosofica. Non la ricerca strenua e solitaria dell’algoritmo perfetto.
*epistemologo fondatore di Socialgraph.it