Disclaimer digitale I contenuti creati dall’intelligenza artificiale nell’Ue avranno un’etichetta esplicativa

La norma rientra nel Codice di condotta, volontario, contro la disinformazione online. E potrebbe diventare parte dell’Ai Act, il quadro regolatorio del settore

Unsplash

Immagini all’apparenza reali, voci identiche in tutto e per tutto a quelle di persone vere, testi all’apparenza inappuntabili: alcune applicazioni di intelligenza artificiale possono generare oggi tutto ciò, rendendo difficile distinguere online i contenuti partoriti dall’Ia e quelli frutto di una mente umana. Per questo la Commissione europea vuole apporre un’etichetta, che renda i primi immediatamente riconoscibili al pubblico.

Lo farà, al momento, tramite il proprio «Codice di condotta» sulla disinformazione, un accordo su base volontaria già sottoscritto da quarantaquattro tra aziende e organizzazioni del settore, tra cui Microsoft, Google, Meta, TikTok, Twitch. L’obiettivo finale è però che questa norma diventi obbligatoria, magari formando parte dell’Artificial Intelligence Act, il regolamento proposto nel 2021, tramite cui rendere l’Europa il primo luogo al mondo con un preciso quadro normativo nel settore.

Obiettivo trasparenza
«L’Unione europea non è il posto dove vogliamo adottare leggi importate dalla California», ha affermato durante la presentazione alla stampa Věra Jourová commissaria europea ai Valori e alla Trasparenza. Proprio la trasparenza è al centro delle preoccupazioni dell’esecutivo comunitario: le etichette che identificano i contenuti prodotti da intelligenza artificiale dovranno essere «chiare e immediate», affinché la segnalazione sia efficace.

Al momento non sono stati forniti ulteriori dettagli, anche perché presumibilmente le aziende aderenti saranno lasciate libere di utilizzare sulle proprie piattaforme sistemi autonomi di identificazione, purché rispettino i criteri evidenziati dalla commissaria.

Che soprattutto dalle grandi realtà del settore si aspetta maggiori investimenti nel fact-checking e nella lotta alle fake news. Un invito che suona anche come un avviso, perché la materia è delicata: se il Codice di condotta sull’Ia è volontario, il mondo dei servizi digitali è già in gran parte regolato a livello europeo dal Digital Service Act e dal Digital Market Act, che delimitano il perimetro del consentito e dell’illegale in rete.

Come negli altri atti normativi del settore, le istituzioni comunitarie si muovono sul sottile filo dell’equilibrio tra la necessità di trasparenza e la protezione per gli utenti da un lato, e la tutela della libertà di espressione dall’altro. In questo caso, tuttavia, la commissaria ai Valori non ha dubbi: «Se parliamo di intelligenza artificiale, non vedo nessun diritto alla libertà di espressione per le macchine».

Jourová non ha nemmeno nascosto il fatto che uno dei fini di questa operazione riguardi la necessità per l’Ue di combattere la propaganda russa nei propri Stati membri. «La guerra di disinformazione del Cremlino contro il mondo democratico – ha spiegato – è cominciata dopo l’annessione della Crimea. Ciò che la Russia vuole è minare il supporto dell’opinione pubblica europea all’Ucraina».

L’assenza di Twitter
Come da attese, le domande dei giornalisti a Věra Jourová hanno riguardato soprattutto un argomento: l’abbandono del Codice di condotta da parte di Twitter, annunciato dalla Commissione a fine maggio. 

L’azienda di Elon Musk è l’unica grande piattaforma ad avere fatto questa scelta, che tra l’altro sottrae il popolare social network alle nuove indicazioni sulle etichette per l’Ia. Trattandosi di un accordo volontario, Twitter non può essere obbligata a firmarlo, ma Jourová ha fatto capire in modo chiaro che la decisione non è passata inosservata a palazzo Berlaymont.

«Riteniamo che questo sia un errore da parte di Twitter. Hanno scelto la strada più difficile, quella del confronto. La Commissione ne prende atto: so che il codice è volontario, ma è chiaro che abbandonandolo Twitter abbia attirato su di sé molta attenzione».

Uno scontro per ora contenuto, che potrebbe ripresentarsi presto in futuro. Perché l’Ue sta attualmente discutendo l’Ai Act, il quadro regolatorio complessivo sull’intelligenza artificiale. Nella prossima sessione plenaria del Parlamento europeo, a giugno, si voterà la posizione negoziale dell’Eurocamera sul tema, che prevede un approccio basato sul livello di rischio dei differenti campi di applicazione dell’Ia. 

Alcuni strumenti dovrebbero essere vietati, come i sistemi di identificazione biometrica (salvo eccezioni autorizzate dalle autorità giudiziarie), o quelli di manipolazione comportamentale. In altri casi, applicazioni considerate «ad alto rischio», dovranno essere attentamente monitorate, con stringenti  requisiti di trasparenza anche per i chatbot come ad esempio ChatGpt.

«Con il regolamento introdurremo l’obbligo per chi utilizza Intelligenza artificiale generativa di indicare con un “marchio” specifico i contenuti generati, a partire da quelli classificabili come deepfakes», ha commentato il capo-delegazione del Partito democratico Brando Benifei, che dell’Ai Act è relatore per il Parlamento.

Dopo l’approvazione della plenaria, l’obiettivo è quello di affrontare rapidamente i negoziati con il Consiglio dell’Ue, per adottare definitivamente il regolamento entro la fine del 2023. Come ha spiegato la vice-presidente della Commissione Margrethe Vestager, tuttavia, ci vorranno almeno due o tre anni prima che diventi operativo. Va considerata infatti sia la complessità della materia, sia l’evoluzione costante degli applicativi di intelligenza artificiale, che di certo corrono più veloce dei legislatori europei.