Spazzini del webIl mestiere degli “obsoleti” che ripuliscono i social da tutti i contenuti proibiti

A moderare commenti, post, reazioni e video è un esercito di esseri umani. Guardano e, giudicando sulla base di direttive che cambiano ogni giorno, decidono se cancellare o lasciare. È un’occupazione ancora misteriosa (e spesso con condizioni lavorative di serie B) intorno alla quale Jacopo Franchi ha tratto un libro

di Chris Hainto, da Unsplash

“Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti” è primo libro italiano sul lavoro nascosto dei moderatori dei social, ovvero coloro che decidono cosa può apparire e che cosa deve essere rimosso dai nostri flussi di informazione online.

Sono lavoratori che revisionano i contenuti di YouTube, Facebook, Twitter o TikTok, dopo che questi sono stati resi virali dagli algoritmi, e che partecipano in egual misura alla “lotta” e alla collaborazione tra intelligenza umana e artificiale. Secondo le stime sarebbero oltre 100mila le persone incaricate di rimuovere post, foto e video segnalati dagli utenti dei social media. E tutto ciò si verifica ogni giorno dietro ai nostri schermi, mentre inconsapevoli navighiamo distrattamente sul web annegando in un flusso costante di notizie che sono solo una piccolissima parte di ciò che potremmo vedere, se non ci fossero i moderatori. Una sorta di iceberg.

“Gli obsoleti” (Agenzia X Edizioni, 2021) racconta il loro lavoro, ispirandosi a esempi tratti da numerosi fatti di cronaca: dalla pandemia a Donald Trump, dalla guerra in Siria alle violenze in Birmania, dai casi di revenge porn all’hate speech, e l’attualità non manca di aggiornarsi e fornirci altri esempi, come nel caso della moderazione massiccia di contenuti sull’ultima guerra di Gaza avvenuta recentemente.

Certo, senza di loro le piattaforme non sarebbero come le conosciamo. Ma ci sono alcuni aspetti che emergono dal libro e che vanno certamente tenuti in considerazione: l’invisibilità (stringenti accordi di riservatezza sulla privacy e qualifiche camaleontiche), le pressioni psicologiche date dai ritmi forsennati del lavoro (vengono revisionati fino a 1.500 contenuti a turno a moderatore per paghe e percentuali d’errore consentite bassissime) e infine i traumi derivati dai contenuti cui sono sottoposti quotidianamente (a maggio 2020 Facebook ha accettato di risarcire fino a 52 milioni di dollari un gruppo di moderatori per questo motivo).

Attraverso l’analisi di oltre 250 tra articoli, inchieste, testimonianze e ricerche pubblicate negli ultimi dieci anni, Jacopo Franchi, social media manager milanese autore del volume, ricostruisce le modalità di svolgimento di una complessa opera di sorveglianza e censura globale, e l’impatto politico e culturale di quest’ultima sulla nostra società

La moderazione di contenuti “colpisce” sempre più persone, anno dopo anno. Qualche settimana fa, sul Wall Street Journal, è uscito un articolo intitolato “Dentro la prigione di Facebook”. Molti utenti di social, riporta l’articolo, stanno scontando una pena per infrazioni che non capiscono. Il problema, in crescita da anni, è sempre più sentito, anche a causa del ruolo che le società di social media hanno sul flusso di informazioni.

L’idea alla base dovrebbe essere quella di portare le persone a capire dove tracciare il confine sui diversi tipi di contenuti e invitare alla discussione. Ma, per esempio, l’uso dell’automazione per la moderazione su larga scala è ancora troppo poco dettagliato e spesso rischia di commettere errori. «La “prigione” di Facebook, così come emerge dal Wall Street Journal, è una metafora efficace», spiega Franchi. «Descrive tutte quelle forme di penalizzazione temporanea che colpiscono un utente, una pagina, un canale o un gruppo social accusati (a torto o a ragione) di aver violato una delle regole di policy delle piattaforme digitali stesse. Ad oggi, non sappiamo quante persone si trovino nella prigione di Facebook (o di qualsiasi altro social), né quante persone si siano ritrovate in passato a fare i conti con contenuti rimossi, pagine bloccate, account pubblicitari temporaneamente sospesi da un moderatore di contenuti umano o da un sistema automatico».

Il processo attraverso cui le piattaforme decidono di penalizzare un utente anziché un altro, una pagina anziché un’altra, «è tuttora opaco e non prevede alcuna forma di risarcimento verso gli utenti che sono stati ingiustamente ed erroneamente penalizzati. Al massimo, le piattaforme concedono di fare appello contro la decisione dei moderatori, ma senza fornire alcuna garanzia per quanto riguarda la trasparenza del processo di revisione stesso, l’imparzialità del revisore e le tempistiche entro cui la richiesta di appello verrà gestita».

A tal proposito, è importante ricordare come anche nel 2021 i social media abbiano pubblicato i loro report sulla trasparenza annuali, riguardanti le attività di moderazione compiute sulle proprie piattaforme.

Il tema che risalta è che, nonostante tutto, resta ancora un importante scollamento tra numeri e persone. Si tratta, perlopiù, di dati senza una vera e propria analisi. Cosa dimostrano? Come si può leggere i numeri con più profondità? «Il problema, se così vogliamo chiamarlo, è che si tratta di dati elaborati internamente dalle stesse aziende che svolgono attività di moderazione sulle proprie piattaforme», commenta Franchi. «Nessuno di questi report riporta al suo interno un solo esempio concreto dei contenuti che sono stati rimossi, non rimossi o rimossi per errore: né i normali utenti, né i giornalisti, né tantomeno i ricercatori possono verificare quali siano stati nella realtà i milioni di post di disinformazione eliminati, i milioni di messaggi d’odio rimossi, i milioni di contenuti violenti censurati da un essere umano o da un sistema automatico. Non c’è modo di interrogare questi dati, né di individuare un confine netto tra gli interventi di moderazione di presunte intelligenze artificiali e gli interventi compiuti da un moderatore di contenuti umano».

Paradossalmente, «il dato più rilevante che emerge da quasi tutti i report è l’enorme quantità di errori compiuti nell’atto di censurare i contenuti: questo dato si trova solitamente alla voce “contenuti riammessi”, in seguito a un appello degli utenti o a un secondo controllo interno compiuto dalle piattaforme. È stupefacente notare come ogni giorno siano migliaia i contenuti e gli account rimossi per errore e ripubblicati non si sa quanto tempo dopo rispetto all’intervento di moderazione, né quali siano state le conseguenze – economiche, reputazionali, sociali – per le persone e le pagine che sono state erroneamente penalizzate e censurate».

Un’altra riflessione importante è che non dobbiamo dimenticare le persone, anche se il digitale sempre più spesso ci porta in quella direzione. E, soprattutto, non dobbiamo dimenticare i diritti delle persone e dei lavoratori: in un futuro nemmeno così lontano o distopico, si potrebbero paragonare i rider ai moderatori di contenuti, in termini di diritti riguardanti il lavoro? «Il paragone che faccio nel libro tra moderatori di contenuti e lavoratori della gig economy», continua Franchi, «si basa non solo su una identica assenza di diritti riguardanti il proprio lavoro, quanto sulla natura organizzativa del lavoro stesso: come i food rider, anche i moderatori di contenuti sono tra i primi e più diffusi esempi di lavoratori che sperimentano una organizzazione del lavoro fondata sugli algoritmi e sull’intermediazione di sistemi automatici al posto di responsabili e dirigenti “umani”. Come i gig worker, anche i moderatori lavorano seguendo le indicazioni di un algoritmo che organizza l’ordine di priorità della “coda di revisione” dei contenuti segnalati dagli utenti. Come i gig worker, anche i moderatori possono essere soggetti alla valutazione di un algoritmo riguardante la loro percentuale di errore sui contenuti revisionati. Come i gig worker, anche i moderatori vengono selezionati da un algoritmo che propone loro un’offerta di lavoro per un ruolo che non avrebbero altrimenti cercato attivamente, perché camuffato sotto altre denominazioni (solitamente le offerte di lavoro per moderatori sono per community specialist, o per l’assistenza clienti)».

Infine, «Come i gig worker, anche i moderatori rappresentano la forza lavoro più consistente – anche se non assunta con contratti da dipendente – di aziende tecnologiche che sono state superficialmente ritenute in grado di fare a meno del lavoro umano, in ragione dei loro colossali investimenti in tecnologie automatiche».

Ma chi sono quindi gli obsoleti del titolo? «Nell’accezione comune del termine», spiega Franchi, «l’essere umano diventa “obsoleto” quando non è più in grado di aggiornare le proprie competenze alle nuove richieste del mercato del lavoro fondato sulle nuove tecnologie digitali. I moderatori di contenuti, in questo senso, sembrano essere il prototipo dei lavoratori obsoleti: privi di competenze digitali avanzate, sono le ultime persone che ci aspetteremmo di trovare al lavoro per un’azienda come Facebook, Google o Twitter, non avendo particolari competenze o qualifiche. Eppure, essi non solo sono indispensabili alla sopravvivenza delle aziende tecnologiche più importanti al mondo, ma sono tutto fuorché refrattari all’aggiornamento continuo: fin dal primo giorno di lavoro come moderatori sono obbligati a memorizzare e applicare le regole di pubblicazione delle piattaforme, regole che cambiano di continuo e che li costringono a un continuo oblio delle regole passate e memorizzate in precedenza. Ed è qui, forse, che si trova la difficoltà maggiore per un moderatore, oltre all’estrema violenza di alcuni contenuti che è chiamato in alcuni casi a revisionare: la difficoltà, in poche parole, di dimenticare a comando ciò che ieri era ammesso e ciò che era proibito, per applicare nuove regole di moderazione decise dall’azienda, senza alcuna possibilità di confronto o discussione interna. In questo senso, la condizione dei moderatori mi sembra paradigmatica della condizione di intere classi di lavoratori delle nuove aziende digitali, costretti a un processo di oblio delle conoscenze e competenze passate per acquisire ogni volta nuove conoscenze e competenze in linea con le richieste delle aziende per cui lavorano, senza voce in capitolo sul processo di aggiornamento».

In tutto questo marasma, però, è bene sottolineare che ci sono anche iniziative per districarsi nella complessità dell’argomento. Franchi, infatti, oltre a questo libro e al precedente, “Solitudini connesse”, sempre pubblicato con Agenzia X Edizioni, gestisce un blog, “Umanesimo digitale”, che ha l’obiettivo di dare uno sguardo d’insieme sul nuovo mondo digitale.

Ed è lì che ha introdotto un glossario sui moderatori di contenuti: ogni settimana, una nuova voce, finché ci saranno argomenti da aggiungere. «Per avvicinarsi al mondo “sommerso” dei moderatori di contenuti», conclude Franchi, «è necessario impadronirsi di alcuni termini tecnici essenziali: che cosa vuol dire “segnalare” un contenuto, che cosa vuol dire fare “appello” contro una decisione dei moderatori, che cosa sono le “policy” e via dicendo. Il mio vuole essere un primo tentativo di creare un approccio sistematico allo studio della moderazione di contenuti a partire dal ruolo e dalle responsabilità dei moderatori: tutte le piattaforme digitali impiegano un numero variabile tra le poche decine e le migliaia di moderatori di contenuti, non esistono a oggi social media, app o siti di e-commerce che possano fare a meno dell’apporto di un esercito invisibile di “operai del click” per esaminare le segnalazioni degli utenti e limitare le possibili crisi reputazionali innescate dalla diffusione di contenuti, prodotti, messaggi, notizie da parte degli stessi algoritmi delle piattaforme coinvolte nel processo. Una volta constatato questo stato di cose, e contraddetta l’illusione di una moderazione “automatica” e imparziale, è venuto il momento di operare delle distinzioni tra moderatori professionisti e volontari, tra policy interne e policy esterne delle piattaforme, tra moderatori e fact-checker, per non incorrere più in inutili semplificazioni e banalizzazioni di un problema sempre più attuale».