«Diremo alle grandi piattaforme che le cose cambieranno», afferma risoluta al Parlamento la Commissaria europea alla Concorrenza Margrethe Vestager. Le istituzioni comunitarie hanno preso sul serio le conseguenze dello strapotere delle grandi aziende tecnologiche sulla vita dei propri cittadini. Questa settimana l’Eurocamera discuterà le relazioni di tre diverse Commissioni (Libertà Civili, Mercato Interno e Giuridica) sul Digital Service Act (DSA), il pacchetto di misure con cui, insieme al gemello Digital Market Act, l’UE punta a regolare il complicato e mutevole mondo del web.
Un equilibrio instabile
Gli ambiti da normare sono molti, dalla concorrenza sleale alla pubblicità e gran parte delle regole risalgono a una direttiva sull’e-commerce del 2000, piena preistoria tecnologica. Uno degli aspetti più dibattuti riguarda lo scivoloso equilibrio tra i diritti degli utenti e la lotta ai contenuti nocivi, come lo ha definito la Vice-Presidente della Commissione.
L’obiettivo dichiarato è arginare il dilagare dell’hate speech e della disinformazione, senza compromettere però la libertà d’espressione. Attualmente questa mediazione è affidata ai terms of service delle singole piattaforme, cosa che desta molta preoccupazione nei parlamentari europei.
Un noto esempio concreto sono le recenti cancellazioni e limitazioni che Twitter e Facebook hanno adottato nei confronti di alcuni post di Donald Trump sul Coronavirus. «Forse preferiremmo non vedere le esternazioni di Trump sui social. Ma pensate per un attimo se fosse il contrario: se per esempio Facebook decidesse che la parola di Trump è verità e nascondesse le opinioni contrarie. Cosa facciamo allora?», dice a Linkiesta Alexandra Geese, deputata dei Verdi tedeschi e relatrice ombra di uno dei tre report.
L’indirizzo del Parlamento Europeo è quello di favorire la libertà di espressione, sempre che non si configuri come reato penale: solo ciò che è illegale offline lo è anche online, ha rimarcato in Plenaria il democratico maltese Alex Agius Saliba, rapporteur di una delle relazioni. «Serve un criterio obiettivo, controllabile democraticamente, per decidere ciò che può restare pubblicato. In uno Stato di diritto questo ruolo è assolto dai tribunali. Non possiamo lasciare alle aziende la possibilità di rimuovere contenuti in modo indiscriminato», puntualizza Geese.
In questo senso vanno quindi interpretate le parole di Vestager, che esclude categoricamente la possibilità di un controllo generale da parte delle piattaforme sui contenuti ricevuti. Ma anche le raccomandazioni che l’Eurocamera molto probabilmente farà alla Commissione: il DSA non deve introdurre una responsabilità delle piattaforme per ciò che pubblicano gli utenti, né autorizzare filtri tramite software automatici che neghino la pubblicazione senza tenere in considerazione il contesto. Altrimenti il rischio sarebbe quello di incentivare i social network ad erigere un muro contro tutti quei post genericamente considerati a rischio, tenendo così fuori dall’arena della rete molte legittime manifestazioni di pensiero.
Fondamentale è la distinzione tra contenuti illegali e nocivi. I primi saranno perseguiti dalla giustizia degli Stati Membri (così come in teoria sono perseguibili ora), i secondi vanno tollerati semplicemente perché la piattaforma che li pubblica non può ergersi ad arbitro della loro esclusione.
Questo non vuol dire che i social network saranno un far west, ma che la procedura di rimozione non può essere automatica. «Abbiamo pensato a un sistema Notice & Action – spiega Geese – , differenziato a seconda della gravità del potenziale reato che il contenuto postato implica». In casi molto gravi, come attentati terroristici trasmessi in diretta, le piattaforme sarebbero autorizzate a rimuovere istantaneamente il contenuto; in altri dovrebbero invece sospenderlo notificando il provvedimento all’autore e aspettando la sua risposta per prendere una decisione finale.
Anche questo approccio ha i suoi nodi, da districare in fase legislativa: visto che ogni Paese ha le sue leggi in tema di hate speech, ciò che è legale in uno Stato dell’UE, magari quello in cui la piattaforma ha la sua sede, potrebbe non esserlo in un altro. E a quel punto si porrà il problema di rimuovere o meno il contenuto dagli schermi del territorio in questione.
Gli algoritmi trasparenti e la rivoluzione dell’interoperabilità
Un orientamento garantista sulla libertà di espressione potrebbe inoltre lasciare irrisolto il problema delle fake news online, o più in generale dei contenuti sgradevoli e discriminanti che però non si configurano come reati. Se non si può vietare la pubblicazione, tuttavia, è possibile arginarne la diffusione.
Come sottolinea il report della Commissione Diritti Civili (LIBE), i contenuti sensazionalistici sono quelli che proliferano meglio sulle piattaforme digitali. «Questa dinamica fa parte della psicologia umana. L’uomo che morde il cane fa sempre più notizia del cane che morde l’uomo: spesso preferiamo un video polemico che grida allo scandalo su un determinato argomento, piuttosto che quello di un vero esperto che ci spiega il tema in maniera compassata», spiega Alexandra Geese.
Siccome i social network vendono pubblicità, puntano a catturare l’attenzione dei propri utenti, propinando loro ciò che più facilmente li attrae. L’anello di cruciale di questa catena sono gli algoritmi, meccanismi automatici che decidono quali contenuti vengono visualizzati da quali utenti. «Bisogna spezzare il legame tra la pubblicità e la manipolazione dei comportamenti. Così si colpisce anche la propagazione di messaggi dannosi nella nostra società», afferma la deputata dei Verdi.
Con questa intenzione il Parlamento suggerirà diverse misure: l’obbligo di trasparenza per gli algoritmi dei social network, attualmente protetti da segreto commerciale, la possibilità di opt-out per gli utenti, ovvero di visualizzare i post senza alcun ordine prestabilito, e una stretta al microtargeting, l’invio di messaggi pubblicitari su misura in base ai comportamenti online dell’utente. «All’inizio internet era un giardino dove ognuno poteva cercare il fiore che più gli piaceva. Ora sulla mia timeline vedo una piccola selezione di ciò che c’è, circa il 10%, secondo quelle che per la piattaforma sono le mie preferenze».
Il modello presentato nel report della Commissione Mercato Interno (IMCO) suggerisce tre livelli di trasparenza sugli algoritmi: una spiegazione comprensibile per gli utenti, un accesso ai dati da parte delle autorità governative e una trasmissione a istituti di ricerca che possano analizzare le dinamiche di comportamento online rendendo pubblici i risultati.
Sia la Commissione che le relazioni parlamentari insistono molto pure sulla necessità di regolare il mercato in modo da mantenerlo aperto, favorire l’innovazione e permettere la sopravvivenza di attori più piccoli. Oggi a dominare la scena sono i gatekeepers, piattaforme che offrono una molteplicità di servizi chiusi dentro il proprio ecosistema, come Google che può collegare le sue mappe ai risultati del motore di ricerca, o Facebook che mette in contatto gli utenti dei suoi social tramite la stessa applicazione di messaggistica.
Un accorgimento cruciale per spezzare questi circuiti sarebbe l’interoperabilità, ovvero la possibilità di comunicare in modo trasversale tra due piattaforme di proprietari diversi. L’idea è quella di scrivere ad esempio da Signal a Whatsapp come oggi facciamo tra due sim di diversi operatori telefonici. Sarebbe una vera e propria rivoluzione, con gli utenti liberi di scegliere i servizi che più li soddisfano e non semplicemente quelli più popolari nella loro cerchia di conoscenze.
Una proposta legislativa del genere difficilmente piacerà a chi ha costruito la propria supremazia commerciale su ragnatele di servizi strettamente collegati, progettate proprio per mantenere gli utenti al proprio interno. Forse però i cittadini europei smetteranno con soddisfazione di essere le mosche ignare dei giganti della rete.