E così ieri ci siamo divertiti con FaceApp, e almeno per un giorno l’attesa delle vacanze si è fatta più sopportabile, nel vedere come appariranno da vecchi la Ferragni o Cristiano Ronaldo o il collega oggetto della nostra passione segreta. Tutto fantastico, qualunque cosa aiuti a movimentare la melina di questi ultimi giorni di luglio è il benvenuto, se non fosse che dopo il divertimento iniziale davanti a una cosa come FaceApp faremmo bene a essere terrorizzati.
In uno dei passi più abusati di uno dei libri più abusati della storia, Guy Debord affermava che “nel mondo realmente rovesciato, il vero è un momento del falso”, una frase-cult che spiegava l’esatto funzionamento della società dello spettacolo del Ventesimo secolo. Il problema è che oggi siamo andati oltre: vero e falso sono talmente identici da non essere più distinguibili, e anzi hanno finito per farsi intercambiabili. Che cos’è, FaceApp, se non uno strumento per creare i famigerati deepfake, ovvero immagini e video falsi impossibili da riconoscere come tali, soprattutto all’occhio superficiale e pigro che scorre le notizie sulla timeline del proprio profilo social? Il tema è già stato ampiamente discusso negli Stati Uniti, soprattutto da quando divenne virale questo filmato in cui l’ex Presidente Obama dava del “pezzo di merda” a Donald Trump.
Si trattava di un falso dichiarato, che venne accolto con grande ilarità esattamente come ieri è stata accolta la faccia di Fedez trasformato in rapper della crew degli Anni Azzurri. Il problema è pensare a cosa potrebbe accadere se, invece che far ridere, l’autore del deepfake avesse in mente obiettivi di altro tipo.
Un’azienda israeliana, per esempio, ha recentemente sviluppato un software che permette di modificare il movimento della bocca di una persona ripresa in un video in modo ancora più naturale di quanto fatto con Obama.
Anche questo video è divertente: ma cosa potrebbe accadere se qualcuno andasse dentro a un centro d’accoglienza – o magari a una moschea – a riprendere le persone all’interno, e poi utilizzando questa stessa tecnologia facesse dire loro una minaccia, un insulto o una frase in grado di incendiare l’opinione pubblica? Fino ad oggi, le gag in stile “più vero del vero”, come le notizie di Lercio, non solo ci hanno divertito, ma sono state anche una formidabile cartina di tornasole per capire immediatamente chi fossero gli analfabeti funzionali. Davanti a coloro che credevano davvero al celebre falso della Boschi e della Boldrini al funerale di Riina, così come a un qualsiasi video del noto artigiano del falso Gian Marco Saolini, non si poteva far altro che provare tenerezza e invocare l’intervento di un bravo psicologo.
Tuttavia, la situazione cambia diametralmente nel momento in cui lo sviluppo di tecnologie “sovraumane” rende impossibile l’identificazione del falso anche per chi non ha mai condiviso un buongiornissimo caffè in vita sua.
Anche perchè, per quanto possano essere ben fatte queste app, siamo solo all’inizio: nel momento in cui è in corso lo sviluppo di un’Intelligenza Artificiale per ricreare la voce di Elton John in modo da continuare a pubblicarne canzoni inedite anche dopo la sua morte, è chiaro che stiamo entrando in un’epoca completamente nuova e per la quale non siamo minimamente equipaggiati.
E la parte peggiore è che non esistono soluzioni di alcun tipo.
Queste tecnologie hanno applicazioni straordinarie: quella della bocca usata per il video di Imagine, per esempio, permette di girare uno spot pubblicitario in una lingua e poi produrre versioni in lingue diverse, senza dover ricorrere al doppiaggio e mantenendo costi di produzione eccezionalmente bassi. Non è colpa di chi l’ha inventata se un uso distorto della stessa possa avere applicazioni potenzialmente pericolose, perchè allora bisognerebbe vietare anche l’uso del cortello e – perchè no – della forchetta, che può sempre venire utilizzata per far male a qualcuno.
Ugualmente terrorizzante è ipotizzare la stesura di “regolamenti” o di fantomatici “codici etici”, come vorrebbe qualche integralista nostrano del fact checking, che avrebbero il solo risultato di essere strumentalizzati per limitare la libertà d’espressione, già messa a dura prova dalle policy dei social network e dal dominio del politicamente corretto.
Ma se né una nuova ondata di luddismo né un comitato di saggi possono esserci d’aiuto, significa che non c’è via d’uscita, e bisogna prepararsi alla famosa notte in cui tutte le vacche sono nere, e vivere in un mondo in cui la nozione stessa di verità, così come quella di realtà, saranno completamente stravolte.
Nel 1914, le tensioni internazionali fecero si che l’assassinio di un arciduca a Sarajevo – un fatto eclatante, ma che si credeva circoscritto a livello locale – mise in atto una serie di effetti collaterali che portarono alla Prima Guerra Mondiale. Chissà se un giorno, in un’epoca di tensioni altrettanto forti come questa, la stessa cosa non possa accadere a causa di un deepfake.