A chiunque nega che in Italia ci sia un profondo e radicato antisemitismo bisogna mostrare solo un dato: nel 2023 ci sono stati quattrocentocinquantaquattro episodi di odio contro gli ebrei: un aumento dell’ottantotto per cento rispetto all’anno precedente. È il dato più alto mai registrato dall’Osservatorio sull’antisemitismo della Fondazione Cdec. Un numero orribile, segno di un male antico che non solo non muore, ma sa perfettamente adattarsi ai tempi moderni. Se un tempo l’odio antisemita si consumava in discorsi complottisti fatti a porte chiuse, oggi invece viene quasi rivendicato e viaggia veloce sulle autostrade digitali, amplificato dai social network e alimentato da eventi geopolitici come il pogrom del 7 ottobre da parte del gruppo terroristico palestinese Hamas.
Roma, Milano, Firenze e Napoli sono i principali teatri di questa vergogna, che alterna le sue manifestazioni online e offline. Da una parte i social media si fanno megafono di teorie del complotto, negazionismo della Shoah e stereotipi nauseabondi; dall’altra nella vita quotidiana si moltiplicano gli episodi di vandalismo, insulti e aggressioni. Non si tratta solo di esplosioni di rabbia figlie di ignoranza e pregiudizi; dietro molti di questi episodi c’è una macchina ben oliata che sfrutta la disinformazione per seminare odio contro gli ebrei.
Per affrontare questo fenomeno in crescita, il progetto “New Media Literacy Strategies to Counter Antisemitism” ha riunito esperti, rappresentanti politici e organizzazioni civili in un workshop tenutosi a Roma a novembre, con l’obiettivo di identificare strategie efficaci per contrastare l’odio online e promuovere una cittadinanza digitale consapevole. Ne è uscito fuori un report dettagliato redatto da Eleonora Mongelli della Federazione Italiana per i Diritti Umani (Fidu), nell’ambito del progetto finanziato dalla Coalition to Counter Online Antisemitism (Ccoa) tramite la Google.org Foundation.
Il rapporto non si limita a fotografare il fenomeno, ma analizza le radici del moderno antisemitismo che in questi tempi si manifesta in due forme. C’è quello solido, evidente, che si insinua nei discorsi pubblici e nelle istituzioni. Poi c’è quello liquido, più subdolo, che si diffonde in Rete attraverso linguaggi codificati e tecniche sofisticate di manipolazione. Il problema è che quest’ultimo è così rapido e sfuggente che i tradizionali strumenti di controllo – come il fact-checking – arrivano sempre troppo tardi, anche se rimangono comunque utili.
Proprio le piattaforme online come Facebook, X (il fu Twitter) e TikTok si sono dimostrate terreno fertile per la diffusione di contenuti antisemiti, incluse teorie del complotto, negazionismo dell’Olocausto e narrazioni che paragonano Israele alla Germania nazista. Questa escalation digitale non è limitata all’Italia; un’analisi del Centre for European Policy Institute for Strategic Dialogue (ISD), che ha promosso la Coalition to Counter Online Antisemitism, evidenzia come i contenuti antisemiti in Francia e Germania siano cresciuti rispettivamente di sette e tredici volte tra il 2020 e il 2021. In particolare X è stata segnalata per il suo ruolo nella diffusione di contenuti falsi legati al conflitto israelo-palestinese, come la falsa notizia che l’Ucraina avesse venduto armi occidentali a Hamas.
Il problema è che spesso le narrazioni antisemite si mescolano a discorsi anti-occidentali, usando linguaggi codificati aggirano i sistemi di moderazione delle piattaforme, complicando ulteriormente gli sforzi per rilevare e rimuovere contenuti d’odio. Un esempio di questo fenomeno dell’algospeak è usare il termine k!ll invece di kill oppure h@te invece di hate.
«Il lavoro che abbiamo condotto all’interno di questo progetto, anche confrontandoci con i nostri partner in Europa, ha evidenziato l’urgenza di affrontare l’antisemitismo come un fenomeno contemporaneo complesso che colpisce tutta la società, superando quindi le sue radici storiche. Preoccupa la crescente normalizzazione di discorsi antisemiti, spesso alimentati dalla politicizzazione dell’antisemitismo, che si manifesta sia online che offline, anche attraverso vere e proprie operazioni di disinformazione – in larga parte provenienti dalla Russia – che amplificano narrazioni d’odio e polarizzazione», spiega a Linkiesta Eleonora Mongelli, autrice del report.
Che fare, allora? Il rapporto propone un piano d’azione basato su tre direttrici. La prima è l’educazione: nelle scuole bisogna insegnare ai giovani come smascherare le bufale e riconoscere i pregiudizi, formando anche gli insegnanti per aiutarli a combattere stereotipi e complottismi. Una lotta che deve partire dai minorenni, ma che va allargata a una popolazione italiana ancora poco alfabetizzata dal punto di vista mediatico, vulnerabile alle bugie travestite da verità, che assorbe senza reagire. Per costruire questo ideale sistema integrato di segnalazione e rimozione dei contenuti d’odio è fondamentale una collaborazione continua e proficua tra le istituzioni nazionali ed europee, le organizzazioni ebraiche e i media.
La seconda soluzione proposta dal report è la prevenzione: servono strategie proattive per fermare la disinformazione sul nascere. Un esempio virtuoso è il pre-bunking, ovvero intervenire prima che la disinformazione si diffonda, anziché tentare di correggerla quando è già virale. Tradotto: fornire alle persone informazioni accurate e farle familiarizzare con le più popolari tecniche di disinformazione (come la manipolazione emotiva e la polarizzazione ideologica, per dirne due), prima che gli utenti vedano in Rete i contenuti falsi o manipolati.
Come? Usando le nuove forme di intelligenza artificiale per monitorare in tempo reale le piattaforme digitali, identificando pattern ricorrenti di manipolazione, linguaggi codificati e tentativi di polarizzazione. Così come si potrebbero ampliare i programmi di trusted flagger, cioè quelli che consentono agli esperti di segnalare contenuti problematici in modo tempestivo, in modo che gli utenti vedano subito sotto al post la giusta contestualizzazione, , come previsto dal Digital Service Act (Dsa).
Infine, la terza proposta del report è applicare con rigore le leggi esistenti contro l’antisemitismo e costringere le piattaforme digitali a fare la loro parte, con sanzioni severe per chi non rimuove i contenuti antisemiti. Il problema non è creare nuove leggi ad hoc per punire l’odio contro gli ebrei. Esistono già gli articoli 604-bis e 604-ter del Codice Penale, ma il problema è che restano spesso lettera morta. Infatti l’ottanta per cento delle denunce per discorsi d’odio online viene archiviato.
Invece a livello europeo, un passo in avanti sarebbe il rafforzamento del Digital Services Act Ue, affinché possa applicarsi anche a piattaforme che non rientrano tra le Very Large Online Platforms (VLOPs) come ad esempio Telegram, dove i contenuti antisemiti proliferano attraverso campagne di disinformazione più ampie, pur non raggiungendo la soglia per essere nominati VLOPs.. Non sarebbe male anche migliorare l’accesso ai dati delle piattaforme per consentire agli studiosi e alla società civile di monitorare meglio l’antisemitismo online.
Ma una cosa è chiara: non basteranno le leggi a fermare questa deriva. Serve un risveglio collettivo, un senso di responsabilità che parta da ognuno di noi. Solo con un approccio corale, che unisca educazione, partecipazione civica e tecnologia, potremo costruire una società capace di resistere a questo male insidioso. L’antisemitismo non è un fantasma del passato: è qui, vivo e presente. Sta a noi decidere se lasciarlo proliferare o combatterlo.
«Comprendere l’origine di queste campagne è essenziale per superare le nostre vulnerabilità. Per questo è necessario un approccio multidisciplinare, che includa educazione, formazione e sensibilizzazione (rivolti anche a settori specifici quali ad esempio le forze di polizia), insieme alla regolamentazione, supportato da un coordinamento efficace tra istituzioni, media e società civile e in linea con la strategia dell’UE sulla lotta contro l’antisemitismo», spiega Mongelli.