Inutile girarci intorno, Facebook è, assieme a Google e Amazon, la più potente e determinante infrastruttura digitale del pianeta e ha cambiato la nostra vita quotidiana e il nostro modo di pensare. Non è un caso che anno dopo anno le preoccupazioni su argomenti quali la censura, la libertà di opinione – e anche la responsabilità – siano sempre più centrali per il funzionamento di un network da 2 miliardi di utenti. Del resto, abbiamo a che fare con una mole di contenuti che rappresentano, e non è una metafora, l’intera complessità della società contemporanea.
Scrivere un contenuto di qualsiasi tipo su Facebook non è un gesto neutro. Cliccare su “Pubblica” innesca una dinamica sociale e le conseguenze possono essere moltissime. Comprese quelle che vedono la rimozione di quel contenuto perché ritenuto offensivo. Siamo in un campo ancora abbastanza ignoto, che mette sul tavolo moltissime dinamiche e variabili cui la stessa piattaforma tiene in gran conto. Non stiamo più parlando della “chiacchiera da bar”, ma di un’opinione che ha un impatto, ha una sua viralità e ha la possibilità di orientare diversi pubblici di riferimento. Per questo è fondamentale riflettere sulla responsabilità della parola oltre che sulla libertà di parola, ed è giusto che Facebook dedichi grande attenzione alla moderazione dei contenuti. Però, diversamente a quanto si crede, la moderazione su Facebook non è in mano al potentissimo algoritmo. Grazie a questo articolo di Valigia Blu possiamo capire meglio come funziona un processo che, alla fine, è molto più “umano” di quanto si pensi. In sintesi: quando scrivi un contenuto che offende qualcuno, questo qualcuno può segnalarti (ovviamente può faro anche per altre ragioni, come l’antipatia personale, ma questo è un altro discorso). Questa segnalazione viene filtrata e mandata alla struttura competente, che Facebook appalta a società esterne spesso situate fuori dai confini del Paese di riferimento (in Italia non abbiamo un servizio del genere) e finisce con l’intervento umano che decide se il tuo contenuto è, o meno, rispettoso degli Standard di Comunità (che, come i Termini di utilizzo, nessuno ha mai letto in vita sua).
Vi racconto tutto questo perché anche io sono stato sospeso da Facebbok perché, come molti miei contatti, sono venuto meno agli Standard di Comunità. Non essendo io un troll (cioè un provocatore che ha come missione dare fastidio agli altri) e cercando di usare – nel mio piccolo – Facebook come un megafono per condividere contenuti autografi in cui cerco di scrivere, più o meno seriamente, di politica, cultura e affini (sì: è un profilo noioso) tenendo sempre uno stile dialogico, esplicativo e un tono non assertivo e scevro di ogni bullismo – anzi, spesso condannando e riflettendo sulla natura dell’hate speech, su cui scrissi anche su questo giornale – mi sono chiesto cosa diavolo fosse successo. Risposta: sono stato segnalato e sospeso perché in alcuni miei post, di matrice apertamente anti-razzista (in uno stavo difendendo il presidente della Camera Laura Boldrini), ho usato la parola con la N. Proprio quella.
E così un profilo politicamente corretto, finisce vittima del politicamente corretto. Questa operazione, ancorché necessaria, è abbastanza grezza e problematica. Sembra quasi viva su diverse contraddizioni fondamentali tra cui la “forma” che ha vinto sulla “sostanza” e il profitto basato su puri dati quantitativi e non qualitativi.
Diversamente a quanto si crede, la moderazione su Facebook non è in mano al potentissimo algoritmo. È invece un mix di algoritmi e, come ai tempi dei forum, interventi umani.
Quando generiamo contenuti cerchiamo, chi più chi meno, di scrivere cose complesse, argute, che possano piacere al più alto numero di persone e che possano, nella migliore delle ipotesi, innescare un dibattito. Quando scrivi – a meno che tu non stia esplicitamente tenendo un hate speech – sei nel campo dell’interpretazione, dove anche l’uso di certe parole (come la parola con la N) può essere utile ai fini del discorso che stai portando avanti. Però, se usi quelle parole, vieni acriticamente sospeso. Di contro, quando stai generano un dibattito attorno all’odio (di razza, di genere, di religione, ecc.) e hai l’accortezza di non usare certe parole, decine di migliaia di persone potranno segnalarti, ma Facebook non ti sospenderà. Evitando certe “forme linguistiche” hai rispettato gli Standard di Comunità. Non importa se hai augurato la morte di una determinata etnia o hai portato avanti discorsi apertamente fascisti o nazisti. Quante volte è capitato che segnalassimo pagine dal contenuto apertamente nazifascista senza che niente accadesse? La moderazione, essendo un fatto umano è per sua natura fallace e arbitraria. Interpretare un testo non è sempre facilissimo e l’ironia può essere così stratificata e complicata per cui certe volte non sai veramente se si sta scherzando o meno. Figuriamoci poi cosa può succedere quando, invece, la moderazione è gestita da società terziarizzate che operano fuori dai propri confini.
Facebook ha una sede in Italia, ma non gestisce direttamente i servizi di moderazione, affidati ad aziende terze che operano fuori dal paese. I moderatori di Facebook per l’Italia, in sintesi, potrebbero non essere madrelingua italiani. Inoltre, questi servizi guadagnano in base a report quantitativi che poi portano alla casa madre: più lavori, più sei remunerato. Quindi, a cascata, più sospendi, più hai possibilità di essere premiato. Quasi uno schema Ponzi della moderazione, la piramide della ricaduta economica dell’ecologia mediatica. Valigia Blu scrive proprio che «il risultato sarebbe la formazione di team misti composti da italiani e italofoni, con una remunerazione leggermente al di sotto dello stipendio medio del paese in cui operano». La moderazione è quindi sciatta, letterale e non interpretativa – se scrivi la parola con la N, non importa il contesto, sei fuori; se auguri la morte, ma non usi le parole “della morte”, va tutto bene – e, soprattutto, è basata sulla quantità. Immaginatevi un operatore, cui Facebook garantisce anche un supporto psicologico perché la mole di bestialità che deve leggere o vedere deve essere impressionante, che deve prendere una decisione in circa 10 secondi (secondo una stima del Guardian, che sull’argomento Facebook ha proprio un dossier di una certa consistenza) per passare poi al contenuto successivo. In 8 ore, siamo a circa DUEMILAOTTOCENTOTTANTA decisioni da prendere. Ogni giorno. E più decisioni si prendono, più lavoro puoi quantificare, più l’azienda può andare da Facebook per essere valutata (e pagata) meglio.
Il problema della quantità è che non puoi vedere mai cosa c’è dentro. Ad un certo punto diventa tutto uguale, tutto indistinto, un mare di caratteri che perdono senso e significato. Nessuno sorveglierà i sorveglianti, ed è una stortura sistemica su cui non possiamo fare nulla.
Quali possono essere le ricadute sulla lunga distanza di un comportamento del genere? Cosa succede quando ha trionfato la forma sulla sostanza anche per colpa di dinamiche complesse come, appunto, la terziarizzazione e il pagamento a cottimo? Quello che oggi è un atteggiamento di difesa legittimo, una risposta funzionale e organizzata a un problema reale, e che colpisce singoli utenti che non pesano assolutamente niente nell’economia dell’ecosistema (come il sottoscritto) potrebbe spostarsi a un livello più alto. Cosa succederà quando e se tutto questo diventa strumentale? Il problema della quantità è che non puoi vedere mai cosa c’è dentro. Ad un certo punto diventa tutto uguale, tutto indistinto, un mare di caratteri che perdono senso e significato. Nessuno sorveglierà i sorveglianti, ed è una stortura sistemica su cui non possiamo fare nulla.
Quindi che fare? Io non penso si debba rinunciare a prescindere a usare certe parole semplicemente perché non adatte agli Standard di Comunità. Certo, esistono parole offensive e tremende, che non devono essere usate. La moderazione e il controllo sono importanti, e non si devono lasciar passare comportamenti offensivi e prevaricanti, ma il contesto in cui certi termini vengono usati resta fondamentale. È un inizio e mi auguro si vada sempre più verso una maggiore complessità anche della vigilanza. Riflettere sui contenuti che si postano è fondamentale, ma non dimentichiamoci che questo modo un po’ superficiale (segnalazione in leggerezza e moderazione su base quantitativa senza cogliere sfumature di pensiero, di stile e di tono) va a colpire tutto e rischia di fare “vittime” innocenti e mette una grande quantità di polvere sotto il tappeto. Basarsi solo sulle espressioni formali, sposta solo il problema da un’altra parte e rischia, paradossalmente, di essere controproducente. L’odio esiste, ma non sarà la rete a risolverlo: Internet non ha qualità e capacità divinatorie e non salverà il mondo; Facebook è sostanzialmente un’azienda privata cui abbiamo deputato inconsapevolmente un potere che non è in grado di gestire nella sua complessità. La soluzione, se esiste, va cercata da un’altra parte, probabilmente offline. Perché le idee – anche le più atroci e bestiali – si combattono con altrettante idee e con il confronto ma ricordiamoci che “cancellare” un’idea, che inevitabilmente rispunta fuori sotto falso nome e con altri termini e linguaggi, non cancella l’idea in sé.