Socialdemocratici

Ops, ci è arrivata pure Facebook: le bufale si combattono con più informazioni, non con la censura

Un anno di bilanci per la battaglia del social network contro fake news e hate speech: la bandierina che segnala i contenuti falsi serve a poco. Contenuti correlati che aiutano ad approfondire fanno diminuire le condivisioni delle bufale, invece. Bene così

Facebook 2 Linkiesta

LIONEL BONAVENTURE / AFP

LIONEL BONAVENTURE / AFP

2 Gennaio Gen 2018 0745 02 gennaio 2018 2 Gennaio 2018 - 07:45
Tendenze Online

I social ci raccontano e si raccontano. Da un po’ di tempo a questa parte infatti, non solo ci permettono di condividere momenti della nostra vita e una miriade di informazioni, ma stanno anche svelando a noi utenti progetti e strategie su come affrontare una serie di criticità emerse nel corso degli anni. Due degli aspetti più controversi della rete sono il linguaggio dell’odio e la disinformazione ed ecco allora che le piattaforme ci stanno letteralmente avvisando sulle novità per arginare questi due fenomeni. Qual è l’efficacia di verifiche e modifiche continue se dall’altra parte c’è la corsa contro il clickbaiting con i ritmi serrati della rete? Lo dirà solo il tempo ma appare un’impresa titanica arginare tanto la disinformazione quanto l’hate speech.

Partiamo dalle famigerate fake news. Su Medium Jeff Smith, Product Producer, Grace Jackson, User Experience Researcher e Seethe Raj, Content Strategist, tutti di News Feed Facebook hanno tirato le somme sull’esperienza maturata fino a ora. La prima parte di un lungo post elenca i traguardi raggiunti, come l’aver reso più semplice la segnalazione di notizie ritenute non vere, il lavoro in collaborazione con organizzazioni di fact checking e l’introduzione di avvisi per contenuti etichettati come falsi oppure segnalati. Tuttavia, dopo mesi di ricerche e confronti sono emerse alcune lacune. Ad esempio, segnalare una notizia potrebbe confondere gli utenti, dal momento che per comprendere cosa sia effettivamente falso si richiedono altre ricerche e dunque altri click. Inoltre “flaggare” un contenuto non necessariamente porta a modificare l’opinione in merito, alcune ricerche indicano addirittura il contrario, ovvero che un’immagine o un linguaggio forte volto a mettere in guardia, rafforza le opinioni iniziali di chi legge. Da Facebook fanno sapere anche che prima di apporre un segnale che indica che una notizia è stata contestata, viene effettuato il controllo da parte di due diverse organizzazioni di fact checking. Ciò non solo rallenta l’intero processo ma può portare anche all’eventualità in cui queste ultime non concordino sulla valutazione finale. Si è dunque pensato a dei correttivi. Già dal 2013 agli utenti era offerta l’opportunità dei related articles, ossia di contenuti simili offerti dopo aver letto nella News Feed. Da aprile questi link aggiuntivi sono offerti prima, allo scopo di avere maggiori informazioni, punti di vista differenti e soprattutto di accedere più facilmente agli articoli dei fact checkers. Dopo questa modifica apparentemente piccola, è stato riscontrato che il numero dei click sulle cosiddette bufale è rimasto lo stesso ma si sono ridotte le condivisioni. La strada è ancora lunga ed è fatta di pause, modifiche al percorso da intraprendere e molta osservazione sulle dinamiche che avvengono lungo il cammino.

Già dal 2013 agli utenti era offerta l’opportunità dei related articles, ossia di contenuti simili offerti dopo aver letto nella News Feed. Da aprile questi link aggiuntivi sono offerti prima, allo scopo di avere maggiori informazioni, punti di vista differenti e soprattutto di accedere più facilmente agli articoli dei fact checkers. Dopo questa modifica il numero dei click sulle cosiddette bufale è rimasto lo stesso ma si sono ridotte le condivisioni

Cosa dire invece sul fenomeno dell’hate speech? ProPublica, un’organizzazione americana che si occupa di giornalismo, ha esaminato più di 900 post di Facebook e ha riscontrato che la valutazione di contenuti dalle caratteristiche simili, era spesso differente. Di 49 di essi è stata chiesta una spiegazione, in 22 casi Facebook ha ammesso di aver commesso un errore, in 19 no, in sei casi c’era stata una violazione delle regole ma non era stato segnalato correttamente oppure l’autore aveva cancellato il post, infine in due casi non sono stati trovati elementi sufficienti per esprimere un giudizio. Justin Osofsky Vice President, Global Operations & Media Partnerships di Facebook, ha detto che verrà raddoppiata la squadra che si occupa di questi controlli e si arriverà a 20mila addetti nel 2018. Ha specificato che la piattaforma ha cancellato 66mila contenuti a settimana riconosciuti come hate speech, ma che per arrivare a questa misura bisogna superare certi limiti, quindi alcuni post sebbene controversi riescono a superare indenni la valutazione. I social network dunque continuano a raccontarsi, spiegano cosa intendono fare, a volte si giustificano per gli errori commessi, altre rivendicano i passi avanti fatti e noi, utenti interessati, ci adattiamo ai loro aggiornamenti un po’ confusi dalla mole di novità e forse a volte disillusi sull’esito di tutte queste iniziative.

Potrebbe interessarti anche