A un anno dalle elezioni presidenziali francesi del 2022, La république En Marche!, il partito di Emmanuel Macron, ha presentato le sue proposte per lottare contro le ingerenze straniere e la propaganda online. Si tratta di 16 raccomandazioni e 4 impegni in un documento di 26 pagine in cui si alternano analisi dei problemi e possibili soluzioni.
Macron è stato più volte oggetto di attacchi online durante la campagna elettorale del 2017 (il suo quartier generale venne hackerato e le email private dei suoi collaboratori diffuse su internet), e dopo essere stato eletto ha deciso di non dare l’accredito stampa a Russia Today e Sputnik, giudicati come organi di propaganda del governo russo e non fonti di informazione indipendenti. Sandro Gozi, deputato europeo di En Marche !, autore di La Cible (il Bersaglio), pubblicato in Italia e in Francia in cui racconta anche la campagna di disinformazione che ha subito, spiega a Linkiesta da dove nasce questa nuova proposta.
Quali sono stati i cambiamenti rispetto al 2017? Vi aspettate delle nuove ingerenze straniere nella campagna elettorale che comincerà a settembre?
La questione si è evoluta, mentre prima assistevamo all’ingerenza esterna, cioè potenze straniere che provavano a influenzare il dibattito francese, oggi i problemi sono quasi interamente interni. Ci sono cellule francesi, alcune rafforzate da potenze straniere, capaci di operazioni di disinformazione o di fake news molto importanti; lo abbiamo visto in particolare durante la vicenda dei gilet gialli, quando il lavoro di disinformazione e di odio sui social è stato particolarmente sviluppato, strutturato e organizzato. Rispetto a questa evoluzione ci è sembrato giusto porre la questione in maniera forte e ufficiale, presentando un documento che propone soluzioni in grado di garantire l’integrità delle nostre democrazie.
Come si può intervenire senza censurare i contenuti che vengono inseriti dagli utenti?
Non stiamo parlando di censurare, nel nostro documento sottolineamo una differenza, e cioè che “freedom of speech” non vuol dire “freedom of reach”: avere il diritto di dire ciò che pensi non comporta il diritto di sfruttare gli algoritmi per rendere virali contenuti di odio o palesemente disinformativi e falsi e raggiungere così milioni di persone. Per far questo chiediamo degli impegni alle piattaforme social affinché lavorino sui loro algoritmi e sulle loro condizioni d’uso per limitare la diffusione di informazioni palesemente false o dei video deepfake. Questo impegno va rafforzato nei momenti di campagna elettorale ufficiale, quando i social, che tendono a mostrarci le opinioni a noi più affini, devono rompere la bolla, e assicurare che ogni utente guardi dei contenuti plurali. Poi è libero di pensare ciò che vuole e di formarsi la sua opinione.
Ma chi lo decide? Chi fa questo lavoro? In questo modo i social media diventerebbero degli editori, cioè responsabili dei contenuti che pubblicano.
Sì, noi chiediamo alle piattaforme di assumersi le loro responsabilità, come accaduto durante le elezioni americane. Ci sono due strade, la prima riguarda la propaganda digitale ufficiale: noi proponiamo che i contenuti di questo tipo vengano sempre messi in evidenza come contenuti sponsorizzati in modo simile a quanto accade già per i manifesti e gli spot televisivi. E questo va fatto sempre seguendo l’esempio dei media tradizionali, se negli spazi radioaudiovisivi si controlla il tempo dedicato ai candidati, bisogna farlo anche sui social per garantire a tutti uguali diritti. In Francia l’autorità amministrativa indipendente che si occupa di queste cose potrebbe estendere la sua competenza anche ai social media. La seconda strada è la moderazione dei contenuti non ufficiali, se così si può dire: le piattaforme possono benissimo evitare alcuni aspetti negativi come quello della viralità che abbiamo già descritto.
Però le piattaforme sono gestite da aziende private che in questo modo controllano utenti privati. La scelta di dare o meno spazio a un determinato contenuto è arbitraria, soprattutto perché non parliamo contenuti illegali, bensì di quelli considerati dannosi. Una valutazione soggettiva che può cambiare nel tempo…
Su quello che è dannoso ci sono degli obblighi che vanno parametrati. L’idea è fissare dei criteri che stabiliscono quando le piattaforme debbano intervenire, per esempio in caso di contenuti non illegali ma che mettono in pericolo la sicurezza di uno Stato o i diritti fondamentali. Nella nostra proposta non è lasciato tutto completamente alle piattaforme ma ci sono delle autorità indipendenti da individuare nei paesi membri che dovranno verificare se questi criteri sono rispettati. Per far questo vogliamo istituire dei rapporti periodici che le piattaforme devono inviare alle autorità e aggiornarle, alla luce di questi rapporti poi si valuterà se le piattaforme rispettano o meno gli obblighi che abbiamo deciso insieme.