Dopo anni di spallucce, di distinguo, di “se” e di “ma”, i giganti del digitale (Facebook, Google e Amazon, su tutti) sembrano aver compreso quanto sia pericoloso voltarsi dall’altra parte rispetto alla diffusione di notizie false, teorie del complotto e generico avvelenamento dei pozzi della verità. Per ora i segnali di questa (tardiva) presa di coscienza sembrano esserci ed essere indice, se non di una redenzione, quanto meno del fatto che i signori digitali di questi anni, abbiano preso consapevolezza della questione.
Secondo un editoriale del Financial Times i giganti della tecnologia avrebbero adottato «ampie misure per ridefinire i danni della disinformazione e combatterli. Gli adattamenti per i quali i politici hanno a lungo spinto, sono stati improvvisamente adottati in modo proattivo». Amazon, per esempio, ha rimosso più di 1 milione di inserzioni di prodotti che promettevano di proteggere dal virus. Così pure Google ha rimosso le pubblicità di mascherine; Spotify ha messo in homepage un disclaimer nel quale esorta i suoi utenti a rivolgersi solo a fonti di informazioni autorevoli; Facebook, YouTube, Microsoft e Twitter hanno dichiarato di avere intenzione di promuovere i contenuti qualificati e di rimuovere tutti quelli identificati come falsi. WhatsApp, infine, ha annunciato il lancio di WhatsApp Coronavirus Information Hub uno strumento realizzato in collaborazione con l’Oms e l’Unicef per fornire «suggerimenti e risorse generali per gli utenti di tutto il mondo per ridurre la diffusione di voci e connettersi con informazioni accurate sulla salute».
Un buon segno, ma non basterà se la linea tracciata in queste di emergenza non sarà perseguita in futuro e se non si vorranno applicare le stesse regole di igiene anche al dibattito quotidiano, quando non si discuterà più di malattie mortali ma di quisquilie come elezioni, partiti, tasse, immigrazione.
Gli strumenti tecnologici per fermare l’onda di balle che circola ogni giorno, dunque ci sono: «L’intelligenza artificiale è in grado di svolgere questo compito», ha spiegato alla rivista tecnologica del Massachusetts Institute of Technology, Iain Brown, Responsabile della scienza dei dati presso la sede inglese della società di analisi Sas. «L’apprendimento automatico e i captcha possono anche aiutare le società di social media a individuare i segni rivelatori di notizie false». Anche gli utenti, volendo, possono trovare strumenti software adatti a scovare le bufale.
Ma la strada attenzione non è tutta in discesa, anzi. Nel suo libro “The Reality Game: How the Next Wave of Technology Will Break the Truth”, il docente di giornalismo e intelligenza artificiale del Mody College di Austin, Samuel Woolley, mette in guardia rispetto alla fiducia cieca negli strumenti di intelligenza artificiale come antidoto nei confronti delle fake news. Quel che lo preoccupa, per ora, sono sia il fatto che, per quanto efficace l’intelligenza artificiale sia, non può, ancora, in nessun modo, sostituire l’efficacia di un’azione umana guidata da una precisa volontà, sia il fatto che il suo sviluppo e la sua capacità di apprendere sono uguali sia per chi cerca i contenuti mendaci sia per chi li produce (anzi, la storia ci insegna che questi ultimi sono sempre un passo avanti).
A questo punto, a chi è in sincera apprensione per la sopravvivenza della verità e della distinzione tra vero e falso, tra opinione e menzogna, non resta che aspettare. Solo il tempo potrà dire se la crisi del Covid-19 abbia portato a una (benvenuta, finalmente) consapevolezza della gravità degli effetti della disinformazione e a una volontà reale di fermarne lo scempio, o se si tratterà di una spolverata superficiale, di quelle che durano solo il tempo di ricevere visite.