Negli anni Sessanta Andy Warhol dipinse le sue bottiglie di Coca-Cola spiegando che era affascinato all’idea che il presidente degli Stati Uniti e l’ultimo della working class vivevano vite completamente distanti, ma bevevano entrambi la stessa bibita dallo stesso sapore. Quella uguaglianza esperienziale era un feticcio basato su distribuzione e segretezza della formula. Oggi accediamo ai contenuti online secondo una complessa serie di formule che nessuno conosce, un po’ come la famosa ricetta della Coca Cola: Facebook e Google sono nello smartphone di un deputato inglese sostenitore della Brexit e in quello del migrante che da un campo ai confini della Turchia sogna di vedere Londra. Nessuno dei due sa come funzionano. Del deputato e del migrante invece le web company sanno tutto. Grazie ai loro algoritmi.
La società algoritmica
Viviamo nella società degli algoritmi. Questi piccoli pezzi matematici che premiano i siti nella top list di Google e selezionano il 5% di tutto ciò che amici e pagine commerciali producono ogni giorno su Facebook destinandolo al News Feed (il restante 95% ci viene negato). È Facebook a decidere cosa ci piace, sigillandoci dentro una bolla. È Google a mettere in rilievo ciò che intendiamo trovare, monetizzandolo. Nati per risolvere il problema della complessità di gestire l’enorme quantità di dati prodotti ogni istante in Rete, gli algoritmi sono fondamentali per l’iniezione di servizi intelligenti tagliati su misura per la nostra vita, ma solo una ristretta minoranza di persone dispone della tecnica di costruzione e una ancora più ristretta ne ricava immense quantità di denaro.
Il PageRank di Google è un oggetto mitologico che ha reso più importanti gli ottimizzatori della fantasia. Facebook ha fatto diventare le piccole variazioni del suo News Feed un evento mediatico, l’ultimo nei giorni scorsi: il social network ha nuovamente girato la manopola verso i contenuti originali degli amici allo scopo di frenare i contenuti spiacevoli e truffaldini con l’effetto però di costringere chi ha fatto investimenti per raggiungere le bacheche degli utenti a farne di altri, inseguendo, nel caso degli editori, uno stile comunicativo poco salutare per la qualità dell’informazione, dovendo competere sullo stesso piano con gattini, video virali e meme ironici.
Si chiama shaping, la forza modellante delle piattaforme che riesce a influenzare il giornalismo, la politica, l’opinione pubblica, non solo in termini economici, ma pure nei processi decisionali. Essendo tutti profilati, così da venderci pubblicità su misura, ci viene nascosta una grande quantità di informazioni dissonanti rispetto alle nostre abitudini. La società algoritmica è una sorta di zona di conforto mentale che non riguarda certo solo i social o i motori di ricerca: finanza, sanità, assicurazioni, lavoro, l’intera realtà fisica è collegata e modellata secondo obiettivi che spesso non contengono i discrimini culturali che fin qui hanno retto le scelte collettive. Gli algoritmi, costruiti da ingegneri che non hanno altri obiettivi se non quelli imposti dall’azienda, nascono senza una morale.
Facebook e Google sono nello smartphone di un deputato inglese sostenitore della Brexit e in quello del migrante che da un campo ai confini della Turchia sogna di vedere Londra. Nessuno dei due sa come funzionano. Del deputato e del migrante invece le web company sanno tutto
Le regole dei siti
Essendo così importanti, si sarebbe portati a pensare che ogni volta che ci iscriviamo a questi siti siamo a conoscenza del contratto. Sappiamo tutti però che non è così. La contrattualistica è spesso ignota e fumosa. I cambiamenti, ad esempio sulla privacy, si basano sul silenzio assenso. Ha uno stile tutto suo Facebook, che ciclicamente informa gli utenti di aggiornamenti alla Dichiarazione dei diritti e delle responsabilità; tre anni fa realizzò un referendum a cui partecipò lo 0,38% degli utenti (e votarono contro); un mese fa il social ha introdotto delle modifiche alla piattaforma pubblicitaria che ha cambiato la preferenza sulle inserzioni da mostrare all’esterno alle persone non registrate. Nessun utente aveva mostrato di saperne qualcosa e solo grazie ai blogger si sono sparse istruzioni su come raggiungere il pannello delle impostazioni e negare il consenso.
Google si sforza un po’ di più, di recente Mountain View ha lanciato due nuovi portali per controllare le attività online e la personalizzazione degli annunci pubblicitari (myactivity e Controlla gli annunci), ma siamo sul terreno che ha aperto un terzo fronte con la Commissione Europea che accusa Google di impedire in qualche modo ai suoi clienti di investire in pubblicità su piattaforme concorrenti.I rapporti con la politica
Non si può capire il peso di questi protagonisti senza considerare il loro rapporto con la politica. Secondo Julian Assange, il fondatore di Wikileaks, Google è un partner tecnologico della politica estera americana. Un’azienda che «fa sorveglianza di massa per fare affari e poi cede parte di questi dati alla politica» quando serve per restare nella giurisdizione favorevole del Paese a stelle e strisce. Il fondatore di Facebook, Mark Zuckerberg, è ormai un player del dibattito politico.
Nel suo discorso di apertura alla conferenza degli sviluppatori lo scorso aprile ha apertamente criticato Donald Trump, promuovendo una visione del mondo che mette al centro, ovviamente, la libertà di accedere alla sua creatura. Che Facebook e in generale la Silicon Valley abbiano un cattivo rapporto con alcuni orientamenti politici emergenti è cosa nota: un ex dipendente ha persino denunciato alcune manipolazioni degli algoritmi per dare meno evidenza ad articoli sui repubblicani. Anche se Zuckerberg ha smentito, è parso a tutti una coincidenza singolare che il post più condiviso della storia del social sia la lettera di un newyorchese contro Trump.Finanza, sanità, assicurazioni, lavoro, l’intera realtà fisica è collegata e modellata secondo obiettivi che spesso non contengono i discrimini culturali che fin qui hanno retto le scelte collettive
Il messianico della Silicon Valley
Ci si dovrebbe chiedere come sono riusciti, Google, Facebook, Amazon, Apple e compagni a realizzare tutto questo. La risposta è che gliel’abbiamo permesso noi. In qualche modo, spiega il filosofo Maurizio Ferraris nel suo saggio “Mobilitazione totale”, i servizi tecnologici hanno fatto emergere la nostra natura di schiavi volenterosi. Nel suo ultimo libro, “Psicopolitica”, il filosofo Byung-Chul Han, che già aveva smontato il mito della trasparenza, sottolinea come il mondo digitale ci dà la sensazione di essere sempre liberi, autonomi, una seduzione fatale per il nostro istinto di conservazione che cede alla passività del consumatore cedendo anche tutti i suoi dati, tutto della sua vita. Perché non teme più nulla.
Evgeny Morozov, nemico pubblico numero uno della Silicon Valley, denuncia da anni il modello di queste società data-centriche che sono riuscite «a convertire ogni aspetto della nostra vita – ciò che di norma costituiva l’unica tregua dagli imprevisti del lavoro e dalle ansie del mercato – in una risorsa produttiva». La denuncia però cozza con la convinzione di molti che queste aziende siano davvero in grado di migliorare il mondo, di aumentarne il grado di uguaglianza e prosperità, promettendo una soluzione per tutto. Quello che ci aspetta dalla democrazia.
Ci si dovrebbe chiedere come sono riusciti, Google, Facebook, Amazon, Apple e compagni a realizzare tutto questo. La risposta è che gliel’abbiamo permesso noi
Che fare?
Costruiamo le nostre opinioni con mattoncini completamente diversi da quelli del passato. Capirli significa scoprire come si forma l’opinione pubblica che costituisce la base della democrazia. Dunque togliete lo sguardo dall’edicola o la televisione, e poggiatelo sul vostro smartphone. Se vorremo ancora garantire il bene della collettività in un mondo neo-elitario di decisori algoritmici costruiti da aziende non eleggibili, che non hanno un ruolo istituzionale, ci sono alcune vie, tutte complicate: imporre una impronta politica alla costruzione degli algoritmi, considerandoli alla stregua delle parole di una costituzione o di un trattato; accettare l’economia dei big data, ma cedere sovranità – editoriale e quant’altro – in cambio di altri dati, trattabili, di qualità, che forniscano visione, decisione, anche a noi. E soprattutto usare algoritmi e piattaforme contro il modello vigente, inventandone altri.
Altrimenti il rischio è di vedere svuotata la democrazia sostituita da un simulacro di decisione diretta, mai così intermediata da poteri senza volto e senza responsabilità.