«Quando un governo non fa ciò che vuole il popolo, va cacciato via anche con mazze e pietre». Suona familiare? A molti probabilmente sì. È uno dei meme più diffusi sul newsfeed italiano di Facebook. Periodicamente viene rilanciato su pagine molto seguite, e ricondiviso da migliaia di utenti, sempre accompagnato da una foto di Sandro Pertini. C’è solo un dettaglio: a quanto risulta, questa frase Pertini non l’ha mai detta. A chiarirlo è stata la Fondazione che porta il suo nome. Un falso storico, o più banalmente una bufala, che grazie alle dinamiche imponderabili dell’algoritmo del social di Mark Zuckerberg raggiunge di volta in volta decine di migliaia di utenti.
Su questa e altre distorsioni della viralità di Facebook, sintetizzate sempre più spesso nella fortunata espressione “fake news”, l’editore Franco Angeli ha pubblicato Misinformation: una “guida alla società dell’informazione e della credulità” scritta da Walter Quattrociocchi, coordinatore del laboratorio di Computational Science dell’IMT di Lucca, e Antonella Vicini, giornalista.
Gli autori indagano innanzitutto le attitudini che quotidianamente caratterizzano la nostra presenza su Facebook. Tendiamo, ad esempio, ad acquisire informazioni che aderiscano al nostro attuale sistema di credenze. È l’effetto del “confirmation bias”, pregiudizio di conferma, atteggiamento cognitivo che ci porta a cercare dati che convalidano la nostra visione del mondo. E successivamente, sempre più spesso, a ricondividerli sui nostri profili: non per comunicare ma per identificarci, per rafforzare la nostra coerenza personale. È molto probabile che un simpatizzante del Movimento Cinque Stelle legga il blog di Grillo e che invece uno del Pd legga l’Unità on line, ma è molto meno frequente che trovino il tempo e la voglia di invertire le parti e confrontare la versione della propria parte con quella altrui. Ed è altresì molto raro che uno dei due ricondivida sul proprio profilo un contenuto che si richiama alla visione del mondo dell’altro.
Quello che gli autori definiscono “omofilia” è ciò che rende i nostri newsfeed Facebook camere di risonanza dell’eco di utenti e contenuti che comprovano le nostre opinioni
Siamo propensi a interagire soprattutto con persone con attitudini ideologiche simili alle nostre, rilevano Quattrociocchi e Vicini. Mettiamo like, commentiamo e condividiamo quasi sempre i contenuti di persone e pagine che la pensano come noi. Fonti anche di natura diversa che convergono però su quello che gli autori definiscono “omofilia” e che rendono i nostri newsfeed Facebook delle “echo chamber”, camere di risonanza dell’eco di utenti e contenuti che comprovano le nostre opinioni.
Del resto la convenienza specifica del social di Zuckerberg è quella di farci rimanere dentro il suo ambiente digitale, e farci tornare spesso, il prima possibile, per interagire con ciò che ci propone: perché dovrebbe suggerirci contenuti e fonti che non stimolano il nostro interesse e ci mettono a disagio?
Va da sè che una situazione del genere possa degenerare spesso in una radicalizzazione del nostro punto di vista. Clicchiamo su articoli che ci rassicurano sul fatto di aver ragione. E ce lo conferma anche quanto postato dai contatti che più ci interessano e di cui più ci fidiamo. E se di tanto in tanto ci confrontiamo con i punti di vista altrui, raramente riusciamo a farlo con una reale propensione al dialogo, influenzati come siamo da una visuale claustrofobica, che consolida i nostri convincimenti.
Questa tendenza alla cristallizzazione delle opinioni esistenti è poi affiancata da una vocazione altrettanto pervasiva dell’attuale informazione web: l’emotività. Nel bombardamento continuo di proposte, poco importa spesso se il contenuto sia poco credibile o non verificabile: ciò che importa è che in qualche modo catturi la nostra attenzione e confermi il nostro universo di riferimento iniziale. Lo ha raccontato recentemente a La Lettura anche Paul Horner, web designer accusato di aver contribuito all’elezione di Donald Trump con i suoi siti di fake news. “Io credevo che quelle notizie l’avrebbero danneggiato e invece è successo il contrario”, ha raccontato. “I suoi supporter si limitavano a leggere il titolo e il sommario e, così facendo, hanno finito con il dare a quelle notizie il significato che volevano. Il punto è che quando leggi un mio articolo, vedi che, al di là del titolo e del primo paragrafo, più vai avanti e più la storia diventa ridicola e paradossale. Sono articoli di satira, ma sono stati usati per altri scopi”. Dinamica che sembra essersi riprodotta qui da noi nelle settimane precedenti il referendum del 4 dicembre, quando un sito ha denunciato il ritrovamento di 500mila schede già segnate per il Sì nell’inesistente località Rignano sul Membro: in assoluto, la notizia più condivisa sui social sulla recente tornata referendaria.
Questa tendenza alla cristallizzazione delle opinioni esistenti è poi affiancata da una vocazione altrettanto pervasiva dell’attuale informazione web: l’emotività
Dunque è Facebook a generare le bufale? No. Le bufale sono sempre esistite. Oggi però hanno opportunità molto più potenti per divenire virali e diffondersi, perché ogni utente è di per sè stesso un media, con la sua visione del mondo da veicolare e i suoi canali di diffusione a disposizione. La tecnologia ha quindi enormemente accresciuto la necessità di competenze individuali, perché ha conferito a ognuno di noi facoltà inimmaginabili fino a qualche anno fa.
Come se ne esce? Secondo Walter Quattrociocchi e Antonella Vicini, ritrovando il senso più profondo della comunicazione: l’ascolto. Quello che, tornando all’inizio del pezzo, ha portato ad esempio la Fondazione Pertini ad aggiungere alla smentita del meme una postilla affatto banale: “certo è che l’idea di democrazia coltivata da Sandro Pertini era strettamente legata al concetto di governo a servizio del popolo”. Riaffermare la verità per costruire ponti tra le persone, non per dividere tra istruiti e non.