Scemenza artificialeI meme sono il mezzo di disinformazione più pericoloso

Semplici da creare, virali e irriconoscibili dai software di controllo. Sono usati per diffondere false notizie, che si propagano senza limiti con impatti devastanti. L’unica soluzione per fermarli, al momento, è la collaborazione degli utenti

Di Markus Winkler, da Unsplash

Facili da creare, virali per loro stessa natura, e difficili da identificare dai programmi di intelligenza artificiale. I meme – si è scoperto – non costituiscono soltanto un mezzo simpatico per prendere in giro i guanti di Bernie Sanders, ma rappresentano la vera arma di chi diffonde false informazioni e alimenta teorie del complotto.

Li rendono efficaci la loro velocità, il fatto di essere portatori di un messaggio elementare, complice la forma di immagine più testo. Gli effetti, come ricorda il giornale online americano Axios, sarebbero devastanti.

Come dimostra la ricerca della società di media intelligence Zignal Labs, sono proprio i meme il mezzo privilegiato per la disinformazione sul vaccino anti-Covid, e non i deepfakes, ancora troppo complicati da creare a livello massivo,

Uno di questi, che rappresenta l’immagine del circuito elettrico del pedale di una chitarra, viene spacciato come il microchip segreto per controllare le persone che veniva iniettato insieme al vaccino. Il problema è che tant ci credono: alla fine di dicembre, il meme in questioni ha spinto migliaia di utenti a parlare di un complotto che legherebbe il Covid-19 al 5G.

Le conseguenze sono gravi, e lo dimostra un altro studio pubblicato a inizio febbraio. Dopo essere state esposte a questo tipo di disinformazione, le persone intenzionate a vaccinarsi sono diminuite. Un calo conteggiato in 6,2 punti percentuali (da giugno a settembre) per l’Inghilterra e in 6,4 punti per gli Stati Uniti.

Come già accennato, i meme sono pericolosi perché riescono a sfuggire ai programmi automatizzati che sorvegliano i contenuti postati sui social. L’intelligenza artificiale riesce a identificare frasi dal contenuto sospetto, è in grado di individuare immagini proibite, ma fa ancora fatica quando le due cose sono unite.

Secondo gli esperti contattati da Axios, è un problema con diversi aspetti. Da un lato è una questione di riconoscimento dell’immagine: il testo può essere inserito nell’immagine in modo inatteso, con forme strane e dimensioni diverse delle lettere. Perché il sistema riesca a riconoscerle e processarle ci vorrà ancora del tempo.

Dall’altro, è anche una questione di contesto culturale. Il meme è ironico, costituisce di per sé un oggetto scherzoso, si fonda sulla satira. Questo costituisce un ostacolo insuperabile per le macchine (e a volte anche per molte persone che non hanno il necessario background e non colgono i diversi livelli di ironia. Non a caso i meme hanno successo soprattutto nelle bolle), che non funzionano come il cervello umano e non sono dotate di buon senso.

Per questo il lavoro sporco deve tornare a essere fatto dalle persone, cioè moderatori umani che identificano, capiscono a valutano la pericolosità di un meme.

Facebook ha risposto con la sua “hateful memes challenge”, una vera e propria gara globale – con premi monetari – di cacciatori di meme. Twitter ha messo in campo Birdwatch (ancora in fase di sperimentazione), in cui è la comunità stessa degli utenti a segnalare, con note indicative ed esaustive, i messaggi che considera falsi, pericolosi e ingannevoli.