Dietro l’home pageEcco chi ti blocca i contenuti su Facebook (e no, non è un algoritmo)

Gli ultimi a essere finiti nella rete censoria sono gli amministratori della pagina “Calciatori brutti”. Qualcuno avrà inviato una segnalazione e qualcun altro - non un algoritmo - li ha bloccati minacciando la chiusura. Ecco come funziona

La procedura la conosciamo tutti. Qualcuno posta su Facebook un contenuto che riteniamo offensivo, e noi lo segnaliamo chiedendo al social network di rimuoverlo per motivi diversi. Come mettere un messaggio in una bottiglia, che finisce all’interno di un meccanismo complicato con milioni di tubi e collegamenti. La differenza è che, a leggere e gestire le nostre segnalazioni non è uno dei tanti algoritmi usati da Mark Zuckerberg, ma un team di persone in carne e ossa. «Sparse in tutto il mondo, lavorano 24 ore su 24, sette giorni su sette, per rispondere alle segnalazioni nel giro di 48 ore al massimo», ha spiegato Laura Bononcini, capo delle relazioni istituzionali di Facebook Italia, in occasione della presentazione della partnership con l’Unione nazionale consumatori. Una collaborazione che mira a rendere più consapevoli gli utenti del funzionamento del social network, a partire dalla gestione della privacy, delle inserzioni pubblicitarie e dei contenuti inappropriati appunto.

Monitorare le segnalazioni (che restano procedure anonime) di 1,7 miliardi di utenti distribuiti in 126 Paesi non è una passeggiata. Le squadre di Facebook che hanno questo compito sono quattro, ognuna con un’area di specializzazione: sicurezza, hate speech, pornografia e spam, hacker e account fasulli (access team). I team si trovano sparsi tra le sedi di Menlo Park, Dublino, Austin e Hyderabad, in India. Sono «diverse centinaia di persone», spiega Bononcini (Facebook non dà i numeri precisi), di varie nazionalità. Per entrare in uno dei team, basta candidarsi, come per qualsiasi altra posizione.

In Italia non c’è nessuno che si occupa delle segnalazioni. Ma, assicurano da Facebook, «chi gestisce quelle in italiano è sempre un madrelingua che conosce la cultura italiana». Perché non basta parlare la lingua, bisogna comprendere i contenuti ironici, il gergo, il contesto culturale e pure le parolacce. Un messaggio ritenuto divertente in Italia potrebbe essere offensivo in Tunisia e viceversa. Questa è la parte difficile. Ecco perché l’algoritmo non basta e serve la mano umana. «A volte sembra di lavorare all’Onu», ha detto Julie de Bailliencourt, safety policy manager per Europa, Medio Oriente e Africa.

E come per l’Onu, esistono delle norme comuni. La regola per gestire le segnalazioni è quella di seguire le fantomatiche policy di Facebook (Facebook’s Community Standards), cioè il codice che stabilisce cosa si può e non si può condividere. Se un contenuto viola la policy, viene rimosso e l’autore viene avvisato. A volte l’utente può essere bloccato o gli si può impedire di pubblicare alcuni contenuti, come le foto o i video. E non serve mettersi d’accordo per segnalare in tanti la stessa pagina. «È sufficiente segnalare il contenuto una sola volta», dice Bononcini. «Ed è meglio segnalare il singolo post e non la pagina intera». Un team a parte si occupa invece degli eventuali ricorsi. Perché gli errori nella gestione delle segnalazioni ci sono eccome.

A leggere e gestire le nostre segnalazioni non è uno dei tanti algoritmi usati da Mark Zuckerberg, ma un team di persone in carne e ossa. Quattro squadre che gestiscono “manualmente” i nostri messaggi, e a volte sbagliano. Eccome

Il punto è che le policy di Facebook sono le stesse ovunque, dagli Stati Uniti all’Egitto. E quindi non calzano a pennello per tutti. «Data la varietà della nostra comunità globale, tieni presente che qualcosa che ai tuoi occhi appare inaccettabile o fastidioso potrebbe comunque rispettare i nostri standard della comunità», si legge. Nel listone si trova ad esempio la famosa “regola dei capezzoli”. Se Facebook vede dei seni, in linea di massima li “bannerà”. In questo caso, per le fotografie, il team in carne e ossa viene anche aiutato da programmi che hanno l’obiettivo di individuare le immagini pornografiche e pedopornografiche e scartarle. A volte, sbagliando, e finendo per eliminare anche quadri o fotografie d’autore.

Ci sono casi in cui, poi, il contenuto può violare la legge. Di questo si occupa un’altra squadra. «Talvolta i governi ci chiedono di rimuovere contenuti che non rispettano le loro leggi, anche se rispettano gli standard della comunità. Se, dopo un’attenta analisi legale, determiniamo che il contenuto non rispetta le leggi locali, non sarà più disponibile nel Paese o nell’area in questione». Se una persona è stata diffamata tramite un post di Facebook, ad esempio, quel post stesso potrebbe non violare le policy di Facebook ma la legge italiana sì.

E se gli algoritmi sbagliano, figuriamoci i team in carne e ossa. «Sono umani e possono sbagliare», ha spiegato Bononcini. Dietro le nostre innumerevoli segnalazioni ci sono persone che trascorrono ore ad analizzare “manualmente” messaggio per messaggio, amministrandoli con un ordine di priorità. «Se segnalano che qualcuno sta per suicidarsi, il contenuto viene gestito prima di uno che denuncia la violazione del copyright», spiega Bononcini. «In ogni caso, si risolve tutto nel giro di 24/48 ore al massimo».

Tra gli ultimi finiti nella rete censoria di Facebook ci sono pure quei mattacchioni dei Calciatori Brutti, la pagina con quasi 1,5 milioni di fan (che si descrive così: “Giochi a calcio e sei più brutto della meningite? Sarai inserito nel nostro album fotografico”). Colpa forse della loro “Falafel Cup”, la finta competizione culinaria in cui le facce dei calciatori vengono “montate” sul corpo di un preparatore di kebab. E alla fine vince chi sembra più a proprio agio con il grembiule del kebabbaro. Qualcuno avrà ritenuto i fotomontaggi offensivi e avrà segnalato il contenuto a Facebook. E i piani alti dei social network hanno «minacciato la chiusura definitiva» della pagina, raccontano gli amministratori su Facebook, impedendo «per sette giorni di pubblicare foto e video». Loro hanno fatto il conto alla rovescia con centinaia di migliaia di utenti che li sostenevano. Persino Matteo Salvini li ha difesi. E alla fine sono tornati con la gara dei kebabbari. Probabilmente qualcuno del team dell’hate speech di Facebook il giorno della segnalazione non era proprio di buon umore. Siamo umani, non algoritmi.

Le newsletter de Linkiesta

X

Un altro formidabile modo di approfondire l’attualità politica, economica, culturale italiana e internazionale.

Iscriviti alle newsletter