Le facce nuovePerché le “fake face” sono sempre più perfette e per questo più pericolose

Sono immagini di volti di persone mai esistite, generati da un algoritmo. È una meraviglia della tecnica che però viene già impiegata per manipolare e ingannare. Lo fa la Cina, lo ha fatto anche la Russia

Raccolta di volti inesistenti generati da This Person Does Not Exist

Quando sono apparsi i cosiddetti “deep fake” molti si sono preoccupati. Lo scalpore era giustificato. I video in cui un Barack Obama (modificato in modo impercettibile) dichiarava cose che non aveva mai detto, o quelli – ben più pesanti – in cui una finta Scarlett Johansson risultava impegnata in un film pornografico avevano dimostrato che la tecnologia poteva ormai intervenire e manipolare i volti (più o meno noti) in movimento, con effetti ingannevoli e, purtroppo, convincenti. Essere agitati era giusto.

L’unico problema, fa notare Siddharth Venkataramakrishnan sul Financial Times, è che in questo modo è passata in sordina un’altra innovazione, forse più minacciosa perché più subdola e diffusa: quella delle “fake face”, cioè le facce finte.

A prima vista, provocano stupore: sono volti creati da algoritmi, persone che non esistono ma che appaiono del tutto realistici. Un giro sul sito ThisPersonDoesNotExist potrà risultare convincente.

La tecnologia utilizzata è la stessa dei deepfake, cioè la GAN (generative adversarial network), in cui un algoritmo crea un viso e un altro, confrontandolo con immagini di persone reali cui si ispira, lo costringe a fare modifiche e correzioni fino a quando non è più in grado di identificarlo come falso. Il livello di realismo è altissimo. La tecnica è raffinata e i risultati destano ammirazione, ma non tanto clamore: forse perché sono immagini statiche, forse perché non sono coinvolte personalità celebri. Forse perché sembra ingegnoso ma non pericoloso.

E qui ci si sbaglia. Le facce finte sono già in mezzo a noi e vengono impiegate per ingannarci.

Nel giugno 2020 la Associated Press ha individuato un account su Linkedin con un volto finto che si spacciava come dipendente di un think tank. Roba da poco, forse. Ma già a dicembre un report efettuato dalla società di informatica Graphica, insieme all’Atlantic Council’s Digital Forensic Research Lab, faceva notare che diversi gruppi social legati all’ultradestra e in particolare l’agglomerato editoriale che fa riferimento all’Epoch Media Group ne facevano già uso. Per loro era un trucco per ingrandire la loro presenza sui social e dare l’impressione che fossero tantissimi, anche a chi fosse passato per caso sulla pagina.

Ma non sono i soli. La Cina se ne è servita per una campagna pro-Pechino sui social. Ha mobilitato una sorta di esercito di account falsi, tutti con la loro credibilissima fake face, per difendere le ragioni del Dragone su questioni controverse come Taiwan, l’Indonesia e il Mare cinese meridionale. I russi, al contrario, li hanno utilizzati per inventare finti giornalisti (proprio così) che lavorano in giornali politici dalle posizioni divisive. Tanti utilizzi diversi, ma una finalità comune: ingannare.

Come fare a difendersi? Il primo punto – come sempre – è la consapevolezza del problema. Aiuta ad accrescere il livello di diffidenza: prima di valutare le opinioni di qualcuno si dovrà tenere in conto che potrebbe non esistere.

Dopodiché, alcuni accorgimenti tecnici. Le “fake face” non sono perfette. Nonostante l’alto livello di raffinatezza, ci sono ancora alcuni errori strutturali che tendono a ripetere. La testa, per esempio, potrebbe essere inclinata da un lato mentre naso e denti rimangono diritti.

Oppure bisogna prestare attenzione allo sfondo: spesso gli algoritmi faticano a costruirne uno credibile, fanno molti errori e creano distorsioni evidenti.

Sebbene siano ormai in grado di riprodurre alla perfezione la pelle e i capelli, il loro punto debole, spiega Siwei Lyu, professore di Informatica alla State University di New York, sono gli occhi. Nelle immagini hanno sempre la stessa direzione (diritti, rivolti a chi li guarda), in più bisogna osservarli bene: quelli che è riflesso all’interno permette di distinguere volti veri da immagini finte. Per dimostrarlo ha anche scritto un paper, in più sta lavorando a modelli in grado di trovare difetti e identificare i falsi.

Ma il futuro va in quella direzione: i difetti vengono corretti, il fine tuning cresce. Produrre facce finte sarà sempre più facile e meno costoso e tra un po’ sarà impossibile distinguere chi è vero e chi è inventato. Sempre che sarà ancora una distinzione utile.

Entra nel club de Linkiesta

Il nostro giornale è gratuito e accessibile a tutti, ma per mantenere l’indipendenza abbiamo anche bisogno dell’aiuto dei lettori. Siamo sicuri che arriverà perché chi ci legge sa che un giornale d’opinione è un ingrediente necessario per una società adulta.

Se credi che Linkiesta e le altre testate che abbiamo lanciato, EuropeaGastronomika e la newsletter Corona Economy, così come i giornali di carta e la nuova rivista letteraria K, siano uno strumento utile, questo è il momento di darci una mano. 

Entra nel Club degli amici de Linkiesta e grazie comunque.

Sostieni Linkiesta