Ceci n’est pas une QanonCome l’intelligenza artificiale può aiutare a smontare le teorie del complotto

Nelle sue diverse forme, l’IA generativa è stata spesso usata per distorcere la realtà e alimentare narrazioni fantasiose per fini politici, soprattutto negli Stati Uniti. Uno studio pionieristico rivela che le conversazioni con un modello di machine learning possono ridurre le convinzioni delle persone in merito a cospirazioni

AP/Lapresse

Nel dipinto “Il tradimento delle immagini”, René Magritte mette in discussione l’identità tra realtà tangibile e la sua impalpabile rappresentazione. Accostando all’immagine di una pipa di legno la scritta “Ceci n’est pas une pipe” (“Questa non è una pipa”) il pittore surrealista belga manda all’aria la concezione classica dell’opera d’arte come emanazione del referente. Il quadro è del 1929, agli albori della modernità, ma prefigura con largo anticipo una questione all’ordine del giorno oggi. Nell’epoca della post-realtà tra l’oggetto e la sua riproduzione artificiale c’è un abisso. Un buco nero di conoscenza che, nei casi peggiori, può avere delle gravi ripercussioni sulla salute delle democrazie liberali. E recenti avvenimenti negli Stati Uniti lo confermano.

Lo scorso 10 settembre, in occasione del dibattito presidenziale tra Donald Trump e Kamala Harris, il candidato repubblicano ha raccontato che i migranti haitiani mangiano gli animali domestici a Springfield, una città in Ohio. Una diceria volta ad alimentare la teoria dell’invasione degli stranieri negli Stati Uniti, a lungo sostenuta dal tycoon sia negli anni del suo mandato alla guida del Paese che nel quadriennio presidenziale di Joe Biden. Trump ha detto: «La gente che è venuta qui da fuori si è messa a mangiare i cani e a mangiare i gatti. Stanno mangiando gli animali domestici di chi vive qui. Questo è quello che sta succedendo nel nostro paese, ed è una vergogna». L’ex presidente degli Stati Uniti non è nuovo a questo genere di affermazioni, del tutto infondate e utili solo a portare acqua al mulino del suo discorso anti-immigrazione, che rivelano per l’ennesima volta la vocazione fortemente xenofoba della sua propaganda populista. 

Poche ore dopo, su X e altri social sono diventate virali immagini generate con l’intelligenza artificiale che ritraggono Trump in compagnia di gattini e anatre, e altre in cui mette in salvo questi animali da gruppi di persone nere. Addirittura in un video si vede l’ex Presidente degli Stati Uniti che bacia un’anatra, con la didascalia che recita: «Ti amo e non permetterò agli haitiani di mangiarti».

Una falsificazione della realtà solo apparentemente innocua. Nei giorni successivi alle dichiarazioni di Trump, infatti, a Springfield si sono verificati diversi episodi a sfondo razziale contro la comunità haitiana. Militanti del gruppo Proud Boys, che aveva preso parte all’assalto di Capitol Hill il 6 gennaio 2021, e una delegazione del Ku Klux Klan, organizzazione che sostiene la superiorità della “razza bianca”, si sono dati appuntamento proprio a Springfield per fare proseliti, perpetrando la teoria del complotto razzista diffusa dal candidato repubblicano.

Quella dei migranti haitiani è una delle tante teorie del complotto che sono circolate negli Stati Uniti negli ultimi anni. Secondo un sondaggio di YouGov, quasi la metà della popolazione americana è finita nella “tana del Bianconiglio”. Alcuni esempi possono far comprendere le dimensioni del fenomeno: il cinquantaquattro per cento degli americani ritiene che Lee Harvey Oswald non abbia agito da solo nell’assassinio di John F. Kennedy nel 1963; il trentuno per cento non crede che Barack Obama sia nato negli Stati Uniti; il ventinove per cento pensa che le macchine per il voto siano state truccate in occasione delle elezioni del 2020.

Sono dati impressionanti, che dicono di un fenomeno pervasivo nel Paese, e che riguarda tanto gli elettori repubblicani quanto quelli democratici (sebbene in misura minore per questi ultimi: su dodici teorie del complotto prese in considerazione da YouGov, infatti, i repubblicani risultano maggioritari in ben undici casi).

In anni recenti, la diffusione di nuove tecnologie basate su sistemi IA ha aumentato il timore che questo genere di narrazioni si propagasse, negli Stati Uniti e in altri Paesi. «La capacità dell’intelligenza artificiale generativa di produrre immagini, video e testi altamente realistici solleva preoccupazioni sulla diffusione di informazioni false e sulle sue implicazioni per la fiducia pubblica e i processi democratici», segnala una recente analisi dell’Ispi. Contenuti deepfake e distorsioni delle informazioni possono dunque avere ripercussioni sulla capacità di scelta di milioni di persone, ingenerando pensieri che poco hanno a che fare con la realtà. 

Tuttavia, non sempre sistemi di intelligenza artificiale rappresentano una minaccia per la democrazia. Anzi, in alcuni casi queste tecnologie possono addirittura essere uno strumento utile per disinnescare la convinzione in teorie del complotto. Un recente studio condotto dall’American University di Washington D.C. ha infatti dimostrato che è possibile far cambiare idea a una persona con credenze cospirazioniste attraverso una conversazione con un bot di intelligenza artificiale. “Se non puoi batterli, unisciti a loro”, insomma.

Il chatbot usato dai ricercatori era basato su Gpt-4, un modello di machine learning in grado di elaborare grandi quantità di informazioni in pochi secondi con l’obiettivo di confutare le teorie del complotto tramite un’opera di persuasione ad hoc per ciascun partecipante all’esperimento.

I risultati dello studio sono degni di nota: le interazioni con il modello AI hanno ridotto in media la convinzione del partecipante in una teoria cospirativa di circa il ventuno per cento, e circa un partecipante su quattro (dei duemilacentonovanta presenti) ha rinnegato in toto o in parte il proprio sistema di idee dopo l’esperimento. Inoltre, un secondo test ha provato che a distanza di due mesi coloro che erano usciti dalla “tana del Bianconiglio” grazie alla conversazione con il bot non vi avevano più fatto ritorno. In altre parole, laddove avvenuto, il cambiamento di prospettiva è perdurato nel tempo.

Come riportato nella pubblicazione dello studio su Science, il chatbot – diversamente da un essere umano – ha potuto contare su due capacità chiave nel perseguimento dell’obiettivo: da un lato, l’accesso a grandi quantità di informazioni (grazie a un precedente addestramento dei ricercatori); e dall’altro, la capacità di generare argomenti su misura per ciascun partecipante.

Thomas Costello, professore associato di psicologia presso l’American University e autore principale dello studio, ha affermato che «molte persone che credevano in cospirazioni erano effettivamente disposte a cambiare le loro opinioni quando venivano presentate loro delle controprove convincenti. All’inizio ero piuttosto sorpreso, ma leggere le conversazioni mi ha reso molto meno scettico. L’IA ha fornito resoconti lunghi una pagina e molto dettagliati sul perché una certa cospirazione fosse falsa, ed è stata anche abile e affabile nel costruire un rapporto con i partecipanti».

Per quanto si tratti solamente di un esperimento (e per giunta con un numero relativamente esiguo di partecipanti), la scoperta di Costello apre una nuova prospettiva nei confronti dei sistemi di intelligenza artificiale. Se addestrati nella maniera corretta, infatti, possono anche fare del bene alle nostre democrazie. Come suggerito dai ricercatori dell’indagine, ad esempio, «gli account dei social media basati sull’intelligenza artificiale potrebbero rispondere agli utenti che condividono contenuti imprecisi relativi alla cospirazione, fornendo informazioni correttive a potenziale vantaggio sia dell’autore che degli osservatori». 

Eppure, l’allerta sulle potenziali derive di questi sistemi rimane alta. L’attuale campagna elettorale americana ci insegna che sfruttare le capacità dell’intelligenza per distorcere la realtà e orientare l’opinione pubblica è un gioco da ragazzi. 

A fine agosto sono apparse sull’account Truth Social di Trump delle immagini generate dall’intelligenza artificiale che ritraevano ingannevolmente la famosa cantante Taylor Swift e le sue fan mentre sostenevano la campagna presidenziale del candidato repubblicano. Un endorsement fasullo, di cui il tycoon si è indebitamente appropriato commentando le foto con la frase «I accept». Settimane dopo, Swift ha annunciato con un post su Instagram il suo appoggio alla candidata democratica Kamala Harris, prendendo le distanze da Trump.

«Mi ha fatto riflettere profondamente sui rischi legati all’intelligenza artificiale e sulla pericolosità della diffusione di informazioni false», ha scritto la cantante in merito all’accaduto. «Questo mi ha portato alla conclusione che devo essere molto trasparente riguardo alle mie reali intenzioni come elettrice. Il modo più semplice per combattere la disinformazione è con la verità».

Le newsletter de Linkiesta

X

Un altro formidabile modo di approfondire l’attualità politica, economica, culturale italiana e internazionale.

Iscriviti alle newsletter