21 Luglio Lug 2018 0745 21 luglio 2018

Zuckerberg ha ragione: non è censurando i negazionisti che si fermano le loro idiozie

Il fondatore di Facebook ha da tempo deciso l'obiettivo del social network: nessuna censura, ma impedire che si diffondano false notizie. Ed è molto meglio così: se si vogliono imporre limiti alla libertà, devono essere le comunità e la politica (non i big del tech) a decidere

Zuck_Linkiesta
ALAIN JOCARD / AFP

Quattordici paesi nel mondo ritengono che negare l’Olocausto sia un crimine. Gli altri, no. L’atteggiamento nei confronti di questa odiosa, oscena forma di revisionismo storico divide da sempre. Da una parte, chi vorrebbe negargli diritto di cittadinanza, in qualunque forma di espressione pubblica, per evitare che la propaganda dell’odio antisemita faccia nuovi adepti o finisca per normalizzare le sue menzogne. Dall’altra chi, pur disprezzandole, ritiene la censura non serva a sbarazzarsi delle idiozie censurate, e anzi rischi di incentivarne una diffusione sotterranea, invisibile, anche più pericolosa, creando insieme le condizioni perfette per fare di razzisti e neonazisti altrettanti martiri della libera espressione negata.

La questione è spinosa e controversa, carica di dolore, indignazione, rabbia. Ed entrambe le posizioni, pur se opposte, contengono elementi degni di una seria valutazione. Stupisce dunque che, ciclicamente, opinione pubblica e osservatori della materia chiedano ai gestori delle piattaforme digitali di fornire risposte e soluzioni in grado di mettere tutti d’accordo. Senza tenere conto delle specifiche sensibilità di ciascun popolo. Risposte e soluzioni globali, e incontestabili: questo viene richiesto. Là dove la politica e la società si arrendono, dovrebbero arrivare Mark Zuckerberg e gli altri leader dei colossi web.

Il che, naturalmente, è impossibile. Ed ecco, a ogni intervista, ripetersi le stesse polemiche. Zuckerberg e il suo social network, per esempio, hanno da tempo deciso come trattare il negazionismo. Negare l’Olocausto, diceva l’azienda già nel 2009, non costituisce di per sé una violazione delle condizioni di utilizzo della piattaforma, e dunque non basta per vedere contenuti negazionisti rimossi. “Essere offensivi o sgradevoli non è abbastanza”, dichiarava alla CNN l’allora portavoce, Brian Schnitt. “Vogliamo che il nostro sito sia un luogo dove discutere ogni tipo di idea, anche quelle controverse”.

Una decisione sofferta, e su cui molti, anche internamente, non erano e non sono d’accordo (davvero negare l'Olocausto è un'"idea controversa"?). Ma che ha una sua logica, per quanto a sua volta discutibile: “Crediamo”, diceva sempre Schnitt un decennio fa, “che la missione di Facebook di dare alle persone strumenti per rendere il mondo più aperto sia un modo migliore di combattere ignoranza e inganno rispetto alla censura”.

Ed ecco, a ogni intervista, ripetersi le stesse polemiche. Zuckerberg e il suo social network, per esempio, hanno da tempo deciso come trattare il negazionismo. Negare l’Olocausto, diceva l’azienda già nel 2009, non costituisce di per sé una violazione delle condizioni di utilizzo della piattaforma, e dunque non basta per vedere contenuti negazionisti rimossi.

C'è la stessa ratio adoperata, nei giorni scorsi, in una discussa intervista di Zuckerberg con Kara Swisher di Recode. Da un lato, l’intervistatrice che cerca in ogni modo di fargli dire che ciò che è falso va rimosso perché falso. Dall’altro, Zuckerberg che si oppone fermamente a quell’equivalenza. “Il nostro obiettivo con le fake news”, ha scritto in una mail chiarificatrice resa necessaria dalle polemiche a seguito dell’intervista, “non è impedire a chiunque di dire qualcosa di non vero, ma di impedire che fake news e disinformazione si diffondano tramite i nostri servizi”. Per questo i post negazionisti non vengono rimossi, se non incitano alla violenza; per questo i complotti del sito Infowars, altro recente pomo della discordia sui media internazionali, non vanno ipso facto banditi.

Certo, lo scorso anno grazie ai documenti ottenuti e pubblicati dal Guardian abbiamo scoperto che Facebook si adopera davvero per rimuovere contenuti negazionisti solo in alcuni — 4 su 14 — dei paesi in cui sono illegali, e solo in quei paesi (la pratica, in gergo, si chiama geoblocking). E no, non va bene: prima dei ToS, le regole del servizio, viene la legge, e a quella Facebook deve ubbidire anche quando non ci siano avvisaglie di azioni legali per omissione.

Ancora, Facebook ne fa una questione di principio, in particolare di libertà di espressione, ma è ovvio che i suoi interessi siano anche altri: non comportarsi come un editore vero e proprio, operando scelte editoriali che costringerebbero la piattaforma a nuove e aumentate responsabilità per i contenuti dei suoi utenti (un tema su cui Zuckerberg ha già pericolosamente tentennato di recente); non dare fiato alle voci dei tanti Repubblicani che accusano Facebook di avere un pregiudizio pro-Democratici; e, secondo i più cinici, non rinunciare all’engagement garantito da complotti e bugie.

Eppure Zuckerberg ha ragione a non abbracciare acriticamente la foga censoria del mondo “liberal”. Prima di tutto, perché sappiamo da dove parte — negare l’Olocausto — ma non dove arriva. È l’argomento tipico delle piattaforme: non vogliamo essere “arbitri della verità”. E regge. I gestori dei social media accentrano già troppi poteri, manca solo di investirli di quello di distinguere vero e falso, e dunque di disporre nel loro totale arbitrio della vita e della morte dei contenuti sulla base della loro veridicità.

In secondo luogo, c’è quanto ricordava già nel 2007 Timothy Garton Ash: non c’è alcuna prova che rimuovere contenuti negazionisti limiti davvero la diffusione di credenze negazioniste nella popolazione. In Germania, Austria, Francia, Repubblica Ceca e svariate altre nazioni c’è una legge contro la negazione dell’Olocausto, eppure — lo sappiamo anche meglio un decennio più tardi — ciò non ha impedito la rinascita di movimenti antisemiti, partiti ultranazionalisti e sentimenti di estrema destra proprio in quei paesi. Partiti che sì, nota Garton Ash, non esistono a causa di quelle leggi, ma che è altrettanto vero abbiano potuto fiorire e diffondersi anche nonostante quelle leggi.

Eppure Zuckerberg ha ragione a non abbracciare acriticamente la foga censoria del mondo “liberal”. Prima di tutto, perché sappiamo da dove parte — negare l’Olocausto — ma non dove arriva. È l’argomento tipico delle piattaforme: non vogliamo essere “arbitri della verità”. E regge. I gestori dei social media accentrano già troppi poteri, manca solo di investirli di quello di distinguere vero e falso, e dunque di disporre nel loro totale arbitrio della vita e della morte dei contenuti sulla base della loro veridicità

Di contro, ci sono le realissime controindicazioni di cui si diceva all'inizio. La censura sposta le idee estremiste nel cono d’ombra, al di fuori della luce dello scrutinio pubblico, e questo potrebbe avere conseguenze reali sulla nostra capacità di comprenderne lo sviluppo ideale e organizzativo. La censura crea martiri, anche laddove ci sono solo imbecilli. E la censura, come detto, chiama altra censura. Dovremmo dunque rendere non pubblicabili pensieri creazionisti, no vax, che negano lo sbarco sulla Luna o il cambiamento climatico? E quanti altri pensieri vanno cancellati, secondo la stessa logica? Il punto però è più profondo. Comunque la si pensi, è errato chiedere ai gestori delle piattaforme digitali — soggetti privati, orientati principalmente al profitto — di essere loro a stabilire standard di accettabilità morale o legale per il dicibile. Zuckerberg, per formazione ed eredità ideologica, crede che il bad speech si combatta con più good speech, ed è una tradizione di pensiero che ha una storia nobile e meritevole di rispetto. Altri, di estrazione opposta ma altrettanto rispettabile, pensano al contrario che vada solo sradicato dall’esistente, a qualunque costo. È la posizione ben articolata da Reddit, per esempio.

Ma puntare il dito sulle contraddizioni, peraltro evidenti, nelle politiche di moderazione dei contenuti dei social media non servirà a risolvere il problema. Serve, piuttosto, il riconoscimento che devono essere le singole comunità umane a decidere, tramite la politica e la democrazia, come distinguere l’ambito del dicibile da quello dell’indicibile. Loro a stabilire come farlo in modo che quel confine sia applicabile e rispettato anche online. Loro, nelle apposite sedi, a comprendere come risolvere un problema che oggi si pone in un contesto - Facebook. Twitter, YouTube - sovranazionale per definizione.

Possibilmente, sulla base di dati che ne dimostrino l’efficacia. Come scrive Garton Ash: “l’onere della prova sta in capo a chi propone divieti”. Perché “in una società libera, qualunque restrizione della libertà di espressione deve avere una giustificazione convincente — e qui non c’è”. Undici anni dopo quelle parole, siamo ancora in attesa.

Potrebbe interessarti anche