Contro la post veritàIl piano in tre mosse dell’Europa per salvare le democrazie dalle fake news (evitando le censure)

Serve «un certo grado di regolamentazione», ha detto la vicepresidente della Commissione, Vera Jourova. Si dovrà rendere evidente la pubblicità politica, aumentare la trasparenza dell’uso dei dati e favorire l’alfabetizzazione dei lettori. Auguri

EMMI KORHONEN / LEHTIKUVA / AFP

Esiste un modo che non appaia troppo ruvido per dire l’ovvio? Esiste un modo che non ci faccia passare per pazzi paranoici nel dire che esiste un problema di propaganda, incredibilmente ben mirata, che ha alterato e altera l’equilibrio delle democrazie? Esiste un modo, che non paia retrivo e antistorico, di dire che questa propaganda passa con formidabile efficacia dalle piattaforme social (Facebook su tutte)? Esiste un modo, che sia accettabile, di dire che forse, queste piattaforme, andrebbero controllate, ove non disinnescate?

Probabilmente no, non esiste. Però il problema, per quanto indicibile sia, esiste eccome.

E l’Ue sta cercando il modo, e anche le parole, per affrontarlo. In particolare ci sta pensando la vicepresidente della commissione, Vera Jourova, che ha annunciato che «la regolamentazione delle piattaforme digitali farà parte del Piano d’azione per la difesa delle democrazie europee e la lotta alla disinformazione».

Cosa significhi di preciso e cosa preveda nel concreto questo piano, ancora non si sa. Per ora, e fino alla fine dell’anno, dobbiamo accontentarci solo di quel che ha detto Jourova: «Voglio che il Piano raggiunga obiettivi chiari: rafforzare il settore dei media, rendere le piattaforme più responsabili e proteggere il nostro processo democratico. Gli sforzi dell’Ue contro la manipolazione organizzata e la disinformazione devono essere “più maturi” e contribuire a creare un ecosistema digitale in grado di difendere e promuovere la democrazia da chi ha giocato con armi alterate». Per farlo, secondo Jourova la strada prevede quello che lei, con tutto il tatto e la diplomazia del mondo, chiama «un certo grado di regolamentazione».

Cosa diavolo è, “un certo grado di regolamentazione”?

La questione, va detto, è scivolosa, perché è difficile capire dove finisca la regolamentazione e dove inizi la censura. Sul tema ci si interroga, si dibatte e si litiga da anni: a che titolo si può vietare a qualcuno di scrivere qualcosa sui suoi social? A che titolo uno Stato può vietare la circolazione di messaggi, baggianate e bugie comprese? Perché se lo fa la Cina è esecrabile e se lo fa l’Ue no? Dove sta il limite tra sapere che i terrapiattisti sono fuori di testa e il vietargli di parlare.

Probabilmente, secondo l’Ue, una accettabile via di mezzo starebbe nel prendersela non con gli utenti (leggasi, ognuno scrive quello che gli pare) ma con le piattaforme che ospitano i loro contenuti. «Dobbiamo spingerle a diventare più responsabili», ha detto la vicepresidente. Di nuovo però, la questione è scivolosa, perché si correrebbe il rischio che i governi non esercitino direttamente una censura ma, semplicemente, la deleghino alle piattaforme. Oppure al contrario, che le piattaforme decidessero di assumersi la responsabilità dei contenuti, dando agli stessi ancor maggior eco e visibilità e persino legittimazione.

Non è facile. Eppure agli occhi dell’Ue (e anche di chi all’Ue vuol bene) si tratta di un’operazione urgente e indispensabile. Dunque come fare a limitare i social senza sembrare (e soprattutto senza essere) dei pazzi censori?

L’idea della Commissione è quella di muoversi su tre piani.

Il primo: la pubblicità politica, che dovrà essere esplicita e riconoscibile e soprattutto, a pagamento ( «Alcune campagne sono guidate a scopo di lucro, altre da “utili idioti” – ha detto Jourova riferendosi al modo algoritmico in cui i messaggi si diffondono sui social –. Quindi il mio obiettivo è anche quello di aumentare il costo delle campagne di disinformazione maligna. Oggi è semplicemente troppo economico»).

Il secondo: aumentare la trasparenza sui dati e su come vengono usati. Il che significa capire chi compra i nostri dati, perché a che titolo, per farci cosa e soprattutto come i nostri dati vengono clusterizzati, ossia messi in ordine e letti, dalle piattaforme. («Abbiamo a che fare con un targeting molto preciso basato sul nostro comportamento – ha detto Jourova – C’è una mancanza di trasparenza nel modo in cui il contenuto viene indirizzato a noi e che possiedono gli algoritmi»).

Il terzo: la protezione e la valorizzazione dei media e dei giornali, oltre che un forte impegno per l’alfabetizzazione e la lettura delle informazioni. In pratica rispondere alle fandonie con informazioni reali, ben fatti, evidenti. («Mentire è un problema, ma il problema maggiore è che crediamo in quelle bugie. Dobbiamo sensibilizzare su come funziona la disinformazione e investire sull’alfabetizzazione mediatica»).

E così si torna al punto di partenza. Il problema non è mai chi mente, ma chi crede alle menzogne, specie se rispondono esattamente all’immagine del mondo, un po’ manichea, che si è fatto. E contro quello, contro la creduloneria e la volontà di cercare conferma di quel che già si pensa, non c’è regolamento che tenga.