La macchina del caosCome i social media hanno ricablato il nostro cervello, la nostra cultura e il nostro mondo

In anteprima il prologo di uno dei saggi più importanti degli ultimi anni, scritto dal giornalista del New York Times Max Fisher e pubblicato in Italia da Linkiesta Books. In libreria dal primo di giugno, ma già disponibile su Linkiesta Store

Pexels

La macchina del caos” di Max Fisher è acquistabile qui online.

Entrare nel quartier generale di Facebook dà la sensazione di mettere piede in Vaticano: è un centro di potere ammantato di una segretezza e di un’opulenza tali da far vergognare un oligarca russo. L’azienda ha speso 300 milioni di dollari solo per l’edificio numero 21, un arioso parco giochi d’acciaio e vetro fatto di giardini, verande e ristoranti gratuiti che ho visitato alla fine del 2018. Tra una riunione e l’altra mi perdevo sempre a osservare un murale a due piani che mi ricordava le opere di quel famoso artista cinese che di recente era stato esposto al Guggenheim. Chiesi all’addetta alle pubbliche relazioni che si occupava della mia persona se per caso non l’avessero intenzionalmente dipinto ispirandosi al suo stile. Lei si mise a ridere, sempre con garbo, e mi disse che non era una copia; avevano fatto venire l’artista in persona per esprimersi su quel muro della sede di Facebook. Lui come decine di altri. Tutto intorno a me, dei programmatori lautamente remunerati si affaccendavano lungo i corridoi decorati di murales dall’inestimabile valore.

Nella borsa, insieme ai taccuini, c’era il mio biglietto d’ingresso: più di 1.400 pagine di documenti interni provenienti dai quattro angoli del mondo, che smascheravano Facebook come la mano invisibile capace di definire i limiti di ciò che era accettabile, per quanto riguardava la politica e la libertà di parola, per due miliardi di utenti in tutto il globo. Per la fonte che me li aveva consegnati, quei documenti erano la prova della negligenza dell’azienda e delle scorciatoie che essa aveva percorso nel tentativo di arrestare le crescenti turbolenze globali che, a suo avviso, i suoi prodotti avevano esacerbato, se non addirittura causato. Per me, però, erano ben più di quello. Offrivano una finestra guardando attraverso la quale potevamo capire ciò che pensavano i leader di Facebook delle conseguenze della diffusione dei social media.

Come molti altri, anch’io, all’inizio, avevo immaginato che il vero pericolo legato ai social derivasse dal cattivo utilizzo che ne facevano certi attori ( propagandisti, agenti stranieri, diffusori di fake news ), e che, alla peggio, le varie piattaforme fossero un conduttore passivo dei problemi preesistenti della società. Ma, praticamente ovunque andassi nell’ambito delle mie inchieste, e qualsiasi tema raccontassi ( despoti di Paesi lontani, guerre e rivolte ), c’erano sempre eventi bizzarri ed estremi che continuavano a dimostrarsi legati, in qualche modo, ai social media. Una sommossa improvvisa, un neonato gruppo radicale, il diffondersi di una qualche assurda teoria complottista: tutte queste cose avevano un elemento in comune. Ed erano innegabili le somiglianze con ciò che stava accadendo in America, anche se lì le violenze non erano ancora esplose. Ogni settimana si sentiva di una nuova teoria cospirazionista che si era diffusa su Twitter e che era arrivata a influenzare la politica nazionale, di una sottocultura che si era sviluppata su Reddit e che era sfociata nel neonazismo, di qualcuno che era diventato dipendente da YouTube e che si è era poi trasformato in uno stragista.

E l’inaspettata vittoria di Donald Trump nel 2016? Anche quella fu attribuita, in parte, ai social media. Benché il ruolo giocato dalle piattaforme sia a tutt’oggi misterioso, all’epoca era già evidente come l’ascesa di Trump fosse stata agevolata da strani, neonati movimenti popolari e da interventi superfaziosi che prosperavano online – oltre che da agenti russi che avevano sfruttato le tendenze distorsive e permissive, a livello di identità, dei social media. Questo schema globale pareva indicare un qualcosa di fondamentale che aveva a che fare con la tecnologia, ma nessuno fu in grado di dirmi di che cosa si trattasse di preciso, perché fosse accaduto o che cosa significasse.

Dall’altra parte del mondo, un giovanotto che chiamerò Jacob, terzista per una delle grandi aziende di outsourcing sulle quali la Silicon Valley scarica il lavoro sporco, aveva i miei stessi sospetti. Aveva lanciato tutti gli allarmi possibili. I suoi capi l’avevano ascoltato, preoccupati e perfino compassionevoli, mi aveva detto. Avevano notato anche loro quello che aveva notato lui. Nel prodotto che gestivano c’era qualcosa di pericolosamente sbagliato.

Jacob, un intellettualoide magrolino, si era innamorato di Internet ed erano anni che smanettava con i computer. Le tecnologie sembravano rappresentare il meglio degli Stati Uniti. Ammirava in particolare i magnati del web come Mark Zuckerberg, ceo e fondatore di Facebook, secondo il quale un mondo connesso sarebbe stato senz’altro un mondo migliore. Quando Jacob aveva trovato lavoro in una società di outsourcing che revisionava i contenuti degli utenti di Facebook e di Instagram, una delle decine e decine che l’azienda ingaggiava in tutto il mondo, gli era parso di entrare a far parte della storia.

Ogni giorno la sua squadra spulciava migliaia di post di gente di ogni parte del globo, e segnalava quelli che infrangevano qualche regola o oltrepassavano un certo limite. Era un lavoro estenuante ma necessario, credeva Jacob. Per qualche mese, nel 2017 e 2018, Jacob e i suoi avevano però notato che i post si facevano sempre più carichi d’odio, più inclini alla cospirazione e più estremi. E avevano notato che, più i post erano incendiari, più le piattaforme li diffondevano. Era come se ci fosse uno schema ripetitivo, che veniva applicato nelle decine e decine di Paesi e di lingue che avevano il compito di controllare.

Inoltre ritenevano che il compito di tenere a bada l’odio crescente fosse reso ancora più gravoso da ciò che in teoria avrebbe dovuto aiutarli: gli elenchi composti da decine di regole segrete che stabilivano ciò che era permesso e ciò che invece andava rimosso dalle piattaforme. Per gli oltre due miliardi di utenti di Facebook, tali regole sono per lo più invisibili. Servono a mantenere civili e sicure le piattaforme, e definiscono nel dettaglio i limiti della libertà di espressione e dei movimenti politici consentiti. Ma se da un lato quelle regole si dimostravano inadeguate di fronte alle manifestazioni sempre più brutali degli utenti ( spesso generate dalla piattaforma stessa ) e se l’azienda si dimostrava manchevole nella sorveglianza di questa parte per nulla affascinante del business, dall’altro le linee guida si erano allungate fino a riempire centinaia di pagine, ed erano spesso confuse e contraddittorie. Alcune delle più importanti, ad esempio quelle per riconoscere i post con cui venivano reclutati i terroristi o quelle sulle elezioni controverse, erano piene di refusi, di errori fattuali e di palesi falle logiche. La superficialità e le lacune facevano pensare a una pericolosa noncuranza nei confronti di un lavoro che per Jacob era questione di vita o di morte, soprattutto in un periodo in cui le piattaforme erano invase da estremismi che infiltravano sempre più spesso il mondo reale. Appena pochi mesi prima, in Myanmar, le Nazioni Unite avevano formalmente accusato Facebook di aver permesso che la sua tecnologia contribuisse a provocare uno dei più estesi genocidi fin dai tempi della Seconda guerra mondiale.

Jacob aveva preso nota delle scoperte della sua squadra, e delle sue preoccupazioni in merito, per farle arrivare in cima alla catena di comando. Trascorsero mesi. La presenza degli estremismi online non faceva che peggiorare. Lui attendeva al suo terminale una risposta dal quartier generale, nella lontana America. Una risposta che non arrivò mai. Gli venne un’idea. Per metterla in pratica avrebbe dovuto hackerare i sistemi di sicurezza al lavoro, inviare file secretati all’estero e convincere i media a riprendere e a diffondere i suoi timori – il tutto con la speranza di farli arrivare sullo schermo di una sola persona: Mark Zuckerberg. Erano la distanza e la burocrazia, ne era certo, a impedirgli di mettersi in contatto con chi comandava. Jacob era sicuro che, se solo fosse riuscito ad arrivarci, chi comandava avrebbe sistemato le cose.

Jacob mi contattò per la prima volta nel 2018. Avevo lavorato ad alcune storie, indagando sul ruolo dei social media nella diffusione delle violenze di massa in luoghi come la piccola nazione asiatica dello Sri Lanka, e lui era rimasto colpito perché gli erano sembrate una conferma dei problemi che aveva notato al lavoro – problemi che avevano conseguenze sempre più gravi e, talvolta, letali. Ma sapeva che la sua parola non sarebbe bastata. Aveva bisogno di trafugare dal computer del suo ufficio le regole interne e i documenti che Facebook utilizzava per la formazione. Non era un compito facile, perché le macchine erano ben protette e gli uffici controllati. Tuttavia, era possibile: un anno prima qualcuno era riuscito a trasmettere alcuni file prima al « Guardian » e poi a « Vice News ». Jacob programmò un software per esportare i file, criptandoli e ripulendoli per eliminare le tracce digitali che potevano ricondurre al Paese in cui si trovava il suo ufficio o addirittura a lui. Me ne trasmise alcuni tramite un server sicuro. Qualche settimana più tardi salii su un aereo per prendermi il resto e per conoscerlo di persona.

I dirigenti di Facebook, quando vennero a sapere che avevo ottenuto quei documenti, mi invitarono nel loro elegante quartier generale e si offrirono di farmi parlare con una decina di policymaker aziendali. Erano tutti professionisti tenaci. Alcuni di loro, prima di buttarsi nella corsa all’oro della Silicon Valley, si erano fatti un’impeccabile reputazione a Washington D.C., in campi come l’antiterrorismo e la cybersicurezza. Di certo non assomigliavano agli hacker da scantinato e ai secchioni emarginati che un tempo governavano la piattaforma, sebbene in seguito mi fu chiaro che nei campus di Facebook le ideologie da dormitorio studentesco e i pregiudizi degli esordi erano ancora vigenti: venivano ancora osservati con una convinzione quasi religiosa e imprimevano la loro impronta sugli strumenti tecnologici che diffondevano nel mondo quegli stessi ideali.

Dai colloqui che ebbi presso la sede di Facebook emerse uno strano schema ripetitivo. Un dirigente mi raccontava quale sfida avessero dovuto affrontare quel giorno ( impedire ai terroristi di fare proseliti sulla piattaforma, battere gli hacker di governi ostili, capire quale combinazione di parole costituisse un incitamento inaccettabile alla violenza, eccetera ). Poi alle mie domande, per quanto puntuali potessero essere, ottenevo una risposta diretta e, per così dire, articolata. Quando un problema rimaneva irrisolto, lo riconoscevano. Nessuno doveva mai consultare alcun appunto per spiegarmi, ad esempio, la politica di Facebook sui gruppi indipendentisti curdi, o i metodi applicati dall’azienda per diffondere le regole contro l’incitamento all’odio in lingua tagalog.

Dopo un po’ mi ritrovai a pensare: se al comando ci sono persone così coscienziose e iperqualificate, allora come mai i problemi per i quali studiano risposte tanto ponderate non fanno che peggiorare? Perché quando le organizzazioni per i diritti umani avvisano Facebook di un pericolo imminente sulla piattaforma, l’azienda spesso e volentieri non prende provvedimenti in merito? Perché i giornalisti come me, che non hanno un osservatorio diretto sulle operazioni delle piattaforme e che dispongono di una frazione infinitesimale del loro staff, e del loro budget, non fanno che scoprire delle atrocità e dei culti nati su Facebook che ogni volta colgono di sorpresa l’azienda madre? Ma a un certo punto, in ciascun colloquio, quando chiedevo lumi sui pericoli che derivavano non dal cattivo uso della piattaforma da parte di qualche malintenzionato ma dalla piattaforma stessa, era come se quei dirigenti erigessero immediatamente un muro mentale.

« Non c’è niente di nuovo sul genere di abusi che menziona », mi disse la responsabile delle politiche globali quando le feci una domanda sulle conseguenze dell’attività di Facebook. « Quello che c’è di diverso è il potere amplificante di una piattaforma di social media ». « La nostra società è ancora all’inizio del processo di comprensione delle varie conseguenze dei social media », mi disse invece il capo della cybersicurezza dell’azienda, suggerendo che il cambiamento principale provocato dalla nuova tecnologia era stato meramente il ridurre l’« attrito » nella comunicazione, permettendo ai messaggi di viaggiare più in fretta e più lontano.

Si trattava di un quadro stranamente incompleto del funzionamento di Facebook. Molti, nell’azienda, sembravano essere quasi inconsapevoli del fatto che gli algoritmi e il design della piattaforma plasmassero deliberatamente le esperienze e le motivazioni degli utenti, e quindi gli utenti stessi. Eppure quelli erano elementi chiave del prodotto, erano il motivo per cui, mentre parlavamo, intorno a noi si stavano affannando centinaia di programmatori. Era come entrare in una fabbrica di sigarette e sentirsi dire dagli alti papaveri che non capivano come mai le persone seguitassero a lamentarsi degli impatti sulla salute di quelle scatoline di cartone vendute dalla loro azienda.

A un certo punto, parlando con due funzionari che sovrintendevano alla reazione alle crisi, uscii dal personaggio del giornalista per avvisarli di una cosa preoccupante che mi era capitato di vedere. Nei Paesi di tutto il mondo, su Facebook, girava una voce raccapricciante e, a quanto pareva, spontanea: dei misteriosi stranieri stavano rapendo dei bambini del luogo per trasformarli in schiavi sessuali e per rubare loro gli organi. Le comunità che erano esposte a queste voci reagivano in modi sempre più pericolosi. Ad esempio, quando la diceria si diffuse in Indonesia via Facebook e WhatsApp, gli abitanti di nove diversi villaggi si riunirono in bande che aggredirono dei passanti innocenti. Era come se quelle voci fossero un virus misterioso che tramutava delle normali comunità in orde assetate di sangue. Ed era come se venissero fuori dalle piattaforme stesse! I due funzionari mi ascoltarono annuendo. E non fecero domande. Poi uno di loro, una donna, commentò vagamente che sperava che un giorno un qualche ricercatore indipendente indagasse su cose del genere. Dopo di che passammo oltre.

Tuttavia su Facebook continuavano a emergere diverse varianti di quelle voci. Negli Stati Uniti se ne diffuse una, comparsa per la prima volta su 4chan sotto l’etichetta “ QAnon ”, che si infiammò poi su Facebook come una pozza di benzina a contatto con un fiammifero. In seguito, quando QAnon era ormai un movimento con decine di migliaia di seguaci, un rapporto interno dell’Fbi lo identificò come una minaccia di terrorismo interno. Nel frattempo, gli algoritmi di Facebook avevano promosso la visibilità del gruppo presso un enorme numero di utenti come se si trattasse solo dell’ennesimo club, aiutandolo quindi a diffondere le sue teorie complottiste e a raggiungere le dimensioni di un piccolo partito politico – e questo per nessun altro motivo se non la quantità di click che veniva generata dai contenuti di Qanon.

Entro le mura della sede di Facebook, però, la fede nel fatto che la piattaforma fosse una forza benefica rimaneva apparentemente incrollabile. L’ideale alla base delle aziende della Silicon Valley, secondo cui spingere le persone a passare sempre più tempo online arricchirebbe le loro menti migliorando il mondo, aveva preso piede in particolare tra gli ingegneri che davano forma al prodotto finito. « Man mano che aumenta la portata e abbiamo più persone coinvolte, l’asticella si alza », mi disse un’ingegnere senior riguardo al news feed di Facebook. «Ma penso anche che ci siano maggiori opportunità per le persone di ritrovarsi esposte a idee nuove». Qualsiasi rischio generato dalla piattaforma, e dalla sua missione di aumentare al massimo il coinvolgimento degli utenti, sarebbe stato mitigato dalle soluzioni tecnologiche, mi assicurò quella dirigente.

In seguito scoprii che, poco prima della mia visita, alcuni ricercatori che erano stati incaricati da Facebook di studiare gli effetti della sua tecnologia, dopo che si era sempre più diffuso il sospetto che il sito stesse esacerbando le divisioni politiche in America, avevano avvisato l’azienda che la piattaforma stava facendo esattamente ciò che i dirigenti, parlando con me, avevano escluso. « I nostri algoritmi sfruttano l’attrazione del cervello umano per gli argomenti divisivi », avevano affermato questi ricercatori nella loro presentazione del 2018, che successivamente trapelò e fu ripresa dal « Wall Street Journal ». Anzi, proseguiva il rapporto, i sistemi di Facebook erano progettati per mostrare agli utenti « contenuti sempre più divisivi per conquistare la loro attenzione e farli stare sempre più a lungo connessi ». I dirigenti avevano archiviato il rapporto e ne avevano ignorato le conclusioni, secondo le quali occorreva modificare i sistemi che sceglievano ciò che veniva mostrato agli utenti, in modo da farli stare meno tempo online. La domanda che avevo posto nei corridoi della sede centrale ( « Quali sono le conseguenze del diffondere una fetta sempre crescente di dati su politica, informazione e relazioni sociali tramite piattaforme online progettate specificamente per manipolare l’attenzione? » ) era un tabù.

I mesi successivi alla mia visita coincisero con quello che all’epoca fu considerato il contraccolpo peggiore che si fosse abbattuto sulla Silicon Valley in tutta la sua storia. I giganti dei social media dovettero affrontare delle audizioni al Congresso degli Stati Uniti, l’introduzione di nuove normative in altri Paesi, delle sanzioni multimiliardarie e delle minacce di spacchettamenti coatti delle loro società. E alcune figure pubbliche presero a riferirsi quotidianamente a quelle aziende come se si trattasse dei nemici più pericolosi del nostro tempo. Le aziende, in risposta, si impegnarono a ridurre i danni provocati dai loro prodotti, inaugurarono delle nuove unità operative che avrebbero dovuto impegnarsi a evitare impatti distorsivi sulle elezioni e aggiornarono le loro politiche di revisione dei contenuti. Ma il modello di business, ossia tenere la gente incollata alle piattaforme per quante più ore possibile, nonché la tecnologia impiegata per raggiungere tale obiettivo rimanevano perlopiù identici. E mentre i problemi che queste aziende avevano promesso di risolvere si aggravavano, esse facevano più soldi che mai.

Il nuovo decennio portò con sé un’ondata di crisi. La pandemia di Covid-19, i regolamenti di conti e i disordini di stampo razziale negli Stati Uniti, il rapido insorgere di un’estrema destra nuova e violenta e, infine, addirittura il tentativo di distruggere la democrazia americana. Ciascuna di queste crisi mise alla prova ( o, meglio: svelò ) l’influenza che avevano sul nostro mondo le piattaforme social, esponendone alla vista tutte le ramificazioni, che si erano estese nel corso degli anni.

Nell’estate del 2020 un’ispezione indipendente effettuata su Facebook e commissionata dalla stessa azienda, che subiva le pressioni dei movimenti per i diritti civili, concluse che la piattaforma era tutto il contrario di quello che i suoi dirigenti mi avevano detto. Le politiche da essa applicate creavano un’allucinante disinformazione, la quale poteva influire negativamente sulle elezioni. I suoi algoritmi e i suoi sistemi di suggerimento di contenuti spingevano « le persone in camere dell’eco dell’estremismo che si autoalimentavano », e le allenavano all’odio. L’accusa forse peggiore, secondo il rapporto, era che l’azienda non capiva in che modo i suoi stessi prodotti influissero su miliardi di utenti.

Eppure, alcuni osservatori questa cosa l’avevano capita eccome e, ben prima che molti di noi fossero pronti ad ascoltare, avevano tentato di avvisarci. Si trattava perlopiù di ex fanatici del settore, che erano stati dei “veri credenti” della tecnologia. Alcuni di essi abitavano nella Silicon Valley e questo li metteva in una posizione perfetta per accorgersi sin da subito che qualcosa non stesse andando per il verso giusto e per indagare e valutare le conseguenze di tutto ciò. Ma le aziende, che pure affermavano di aver bisogno proprio delle loro indagini, li ostacolavano poi in ogni modo, mettendo in dubbio la loro reputazione e minimizzando le loro scoperte – anche se poi, in molti casi, sono invece state costrette ad ammettere, anche se solo implicitamente, che quegli allarmisti avevano sempre avuto ragione. Questi ultimi avevano portato avanti il loro lavoro, almeno all’inizio, in modo indipendente gli uni dagli altri, impiegando metodi molto diversi per rispondere alla stessa domanda: quali sono le conseguenze di questa tecnologia? Questo libro racconta la “missione” di rispondere a questa domanda. E la ripercorre, in parte, attraverso le parole delle persone che l’hanno intrapresa.

Il giudizio tradizionale dei primi tempi – secondo cui i social media promuovevano il sensazionalismo e l’indignazione – seppur accurato si rivelò decisamente un eufemismo. Oggi esiste un corpus sempre più ampio di prove, raccolte da decine di studiosi, di giornalisti, di “talpe” e di cittadini preoccupati, che suggerisce che l’impatto dei social sia stato ben più profondo. Questa tecnologia esercita un’attrazione talmente forte sulla nostra psicologia e sulla nostra identità, ed è talmente pervasiva nelle nostre vite, da cambiare il nostro modo di pensare, di comportarci e di relazionarci con gli altri. L’effetto finale, moltiplicato su miliardi di utenti, è quello di cambiare la società stessa in cui viviamo.

Non è certo colpa della Silicon Valley il fatto che siamo così fragili psicologicamente da farci del male a vicenda o da agire contro il nostro interesse. Né il fatto che esista una profonda polarizzazione culturale, in America come altrove, che spinge gli utenti a trasformare questi nuovi spazi virtuali in luoghi di conflitto fazioso e a distruggere qualsiasi senso condiviso di benessere o di realtà. Nemmeno le aziende più grandi possono essere incolpate del modello di finanziamento del settore high-tech che le ha fatte crescere, un modello in base al quale si consegnarono finanziamenti multimilionari nelle mani di alcuni ventenni semidisadattati a cui vennero poi richiesti ritorni istantanei ed esponenziali, senza preoccuparsi degli incentivi distorti che tutto questo comportava.

Detto questo, tali compagnie hanno accumulato alcune delle più ingenti fortune economiche della storia sfruttando le tendenze e le debolezze di cui sopra e, nel farlo, hanno proiettato l’umanità in una nuova era. Le conseguenze – che, con il senno di poi, erano quasi certamente prevedibili, se solo qualcuno si fosse preso la briga di occuparsene – sono state oscurate da un’ideologia secondo cui più tempo online avrebbe creato anime più felici e libere, e da quel particolare tipo di capitalismo della Silicon Valley che consente che una sottocultura ingegneristica anticonformista, impudente e quasi millenarista gestisca aziende che tengono avvinte le nostre menti.

Quando quelle aziende sono state sostanzialmente costrette a comportarsi, quantomeno in teoria, come le istituzioni governative de facto che esse erano diventate, ecco che si sono ritrovate al centro della crisi politica e culturale di cui sono parzialmente colpevoli. Certo, il ruolo di mediatore in una democrazia che sembra avere una gran voglia di autodistruggersi potrebbe essere caritatevolmente definito come un compito ingrato. Ma non bisogna dimenticare che quelle aziende di cui parliamo hanno aspirato a tali posizioni di potere, hanno rifiutato di prendersi le loro responsabilità finché non sono state costrette a farlo dagli enti regolatori e hanno compromesso il benessere dei loro utenti per poter continuare a incassare miliardi ogni mese. E, visto che i colossi dei social media hanno pochi incentivi ad affrontare il costo umano dei loro imperi (un costo sostenuto da tutti gli altri, come nel caso di una città che si trovi a valle di una fabbrica che pompa fanghi tossici nelle acque che usano tutti), spetta a decine di outsider allarmati e di disertori della Silicon Valley farlo al posto loro.

 

“La macchina del caos” di Max Fisher è acquistabile qui online.

Entra nel club, sostieni Linkiesta!

X

Linkiesta senza pubblicità, 25 euro/anno invece di 60 euro.

Iscriviti a Linkiesta Club