Fuoco, Fiamme e FacebookLa regolamentazione dei social non può essere lasciata alle piattaforme

La decisione di Mark Zuckerberg di escludere Donald Trump dalla sua piattaforma e le scelte simili fatte da Twitter aprono un dibattito che per la verità è in corso da tempo, anche se facciamo finta di non occuparcene: servono regole più chiare per la gestione dei contenuti online, e a farle devono essere gli Stati, mentre i colossi digitali devono dare accesso ai loro dati

Olivier Matthys/AP Images for AVAAZ

La sospensione dell’account personale di Donald Trump da parte di Twitter e Facebook (incluso Instagram) ha attirato l’attenzione di molti commentatori a proposito del potere delle piattaforme digitali di decidere discrezionalmente e autonomamente se silenziare qualcuno. Anche quando questo qualcuno è un Presidente in carica, regolarmente eletto, per quanto uscente, in uno Stato democratico. Anche quando quel Presidente incita alla rivolta e diffonde disinformazione.

Non è la prima volta che le piattaforme adottano, in base alle proprie linee guida (cosiddetta self-regulation), una decisione di “de-platforming”. Il caso più noto ha riguardato Alex Jones e il suo sito alt-right e suprematista InfoWars, definitivamente bandito da tutte le piattaforme.

Come spesso accade, si son subito formati diversi “partiti”: quelli che hanno plaudito alla decisione; quelli che ritengono scandalosa la limitazione della libertà di espressione tout court; quelli che approvano la decisione delle piattaforme ma ritengono assai discutibile che una decisione del genere possa esser lasciata esclusivamente all’auto-regolazione dei titolari della piattaforma. 

Personalmente appartengo a quest’ultimo gruppo e va tuttavia detto che finché non si ha il coraggio di adottare forme di regolazione, accusare le piattaforme di auto-regolarsi suona un po’ come un ossimoro. 

Ma la questione nuova e dirimente, e finora sottovalutata, è un’altra: se le piattaforme hanno deciso di oscurare un contenuto o di sospendere un account, in quanto hanno ritenuto che quei contenuti di disinformazione e incitamento alla rivolta potessero generare comportamenti socialmente pericolosi, allora, per la prima volta, entrambe le piattaforme confermano l’esistenza di una relazione diretta tra contenuto dannoso (harmful) e comportamento socialmente pericoloso. 

E questa è una dirompente novità di cui discutere. Dopo secoli di dibattiti, le vecchie speculazioni di John Stuart Mill e, un secolo fa, del giudice Oliver Holmes circa la relazione tra «parole di fuoco» («words of fire») e pericolo imminente, sembrano aver trovato conferme empiriche, evidentemente in base ai dati e alle ricerche che le piattaforme hanno a loro disposizione.

Se, infatti, non si basassero su questi dati, le decisioni di Twitter e Facebook sarebbero puramente discrezionali. E rischierebbero di esser prive del requisito della buona fede previsto dalla legislazione americana per l’esenzione da responsabilità nell’esercizio della politica di moderazione.

Il messaggio di Zuckerberg è stato in questo molto chiaro: «I rischi di permettere al Presidente di continuare a usare il nostro servizio sono semplicemente troppo grandi». Le affermazioni di Trump sono state giudicate in termini di effetti e intenzioni come «suscettibili di provocare ulteriore violenza». Analoghe considerazioni sono state svolte da Twitter nella propria motivazione.

D’altra parte, un rischio concreto di pericolo sociale verosimilmente si forma nel tempo, con messaggi ripetuti, con strategie di micromarketing, con sollecitazioni che occupano tempi relativamente lunghi. E allora vien da chiedersi: perché solo adesso? Quand’è che scatta, concretamente, il pericolo? Cosa determina il superamento di una soglia critica? 

Insomma, se c’è stato un pericolo concreto, la sospensione dell’account è stata doverosa, ma tardiva, perché avvenuta quando il “bivacco dei manipoli” si era già consumato, interrompendo l’attività del Congresso. 

Queste sono le domande che dobbiamo porci, chiedendoci solo dopo quali siano i criteri più adeguati per individuare questa relazione di pericolo imminente, quali siano gli strumenti efficaci per prevenire o contrastare i rischi e quali siano i soggetti più appropriati per attivarli in relazione alle piattaforme più utilizzate e diffuse.

Il tema dell’influenza dei media sulle azioni, incluse le scelte politiche, è un tema antichissimo che si è spesso scontrato con l’obiezione che determinati messaggi possano confermare giudizi e convinzioni pre-esistenti piuttosto che generarne di nuovi o cambiare i comportamenti pregressi.

Una delle ragioni per le quali questi studi empirici sono difficili è la disponibilità di un numero sufficiente di microdati per procedere a correlazioni econometriche statisticamente significative. Dati che, pur nella tutela della privacy, sono in possesso delle grandi piattaforme sia in relazione alla nostra echo chamber che alle nostre preferenze politiche e ai nostri comportamenti.

Tanto per dire, uno dei ricercatori di Cambridge Analytica pubblicò anni fa uno studio che mostrava come con l’analisi di 68 like si riuscisse a predire l’orientamento politico di un utente di Facebook con una probabilità dell’85%.

La conoscenza di questi dati è fondamentale per capire quale relazione di pericolo sussista in concreto nel caso di pubblicazione di determinati contenuti, caso per caso. Anche perché, secondo una costante giurisprudenza della Corte Suprema, il «pericolo imminente» è l’unico vincolo che può determinare, in quel paese, l’eccezione alla protezione che il primo emendamento assicura alla libertà d’espressione (estendendo per analogia quella protezione anche alle interferenze del potere privato). 

Nel suo Ordine esecutivo dello scorso maggio, Trump ha chiesto alle piattaforme di rinunciare del tutto alla moderazione dei contenuti, con l’obiettivo di farle diventare meri trasportatori di contenuti di terzi, pena il venir meno della protezione del requisito della buona fede ai fini dell’esenzione da ogni responsabilità.

L’Europa, con la proposta di Digital Services Act appena formalizzata, riconosce invece l’importanza della moderazione delle piattaforme e la loro esenzione di responsabilità ma chiede una pregnante co-regolazione e trasparenza piena sulle decisioni di moderazioni adottate e sui criteri utilizzati, per i contenuti illegali e dannosi, prevedendo tutele per gli utenti e forme di contraddittorio con la piattaforma stessa. 

È una strada promettente. Nell’attesa, un altro modo per dimostrare la buona fede da parte delle piattaforme sarebbe oggi quello di documentare, con i dati, la valutazione della probabilità che un contenuto generi un comportamento socialmente rischioso e di aiutare a comprendere come la disinformazione, le espressioni d’odio, le incitazioni alla violenza si trasmettano con maggiore o minore facilità, verso quali gruppi, attraverso quali meccanismi.

Questa comprensione permetterebbe anche alla (co)regolazione europea di essere più focalizzata e meno intrusiva e ai nostri annosi (e noiosi) dibattiti teorici sulla libertà di espressione di essere calati nella specifica realtà e nella novità della cittadinanza digitale, con i suoi rischi e le sue opportunità.