Ci sono volute trentasei ore di negoziato e qualche meme su questa maratona tutta europea prima di trovare un accordo sull’Ai Act, la prima legge europea che regolamenta lo sviluppo e l’utilizzo dei sistemi di intelligenza artificiale.
La sua proposta era stata presentata dalla Commissione europea nel 2021, e il tempo trascorso per arrivare allo scorso 8 dicembre è stato utile a tenere conto di tutte le novità di un settore per definizione in continuo cambiamento. Secondo il commissario al Mercato interno, Thierry Breton, l’Ai Act è una vera e propria notizia storica. Per altri ancora, tra cui la presidente della Commissione Ursula von der Leyen, si tratta di un modello giuridico innovativo rispetto ai tentativi portati avanti in altri Paesi. Ci aveva provato già la Cina lo scorso agosto, ma l’Ai Act europeo ha un approccio più ampio sul tema. Almeno a detta di Parlamento e Consiglio dell’Ue che, con la mediazione della Commissione, sono stati i protagonisti del trilogo.
Gli attori di questo risultato lo considerano di fatto un traguardo senza precedenti, se si pesano gli argomenti caldi su cui si regge l’Ai Act. Parliamo per esempio del ricorso alla biometria per scopi di pubblica sicurezza e di tutto ciò che ha a che fare con i foundation model, vale a dire quei sistemi alla base dei sistemi generativi come ChatGpt. E se da una parte l’Europa si è dimostrata unita su alcuni ambiti di applicazione dell’Ai, dai sistemi per le nuove assunzioni di personale nelle aziende, agli algoritmi che fanno funzionare le automobili a guida autonoma, dall’altra proprio i nodi riguardanti il riconoscimento facciale da parte delle forze dell’ordine e la diffusione della disinformazione online hanno consegnato l’immagine di un’Ue divisa a metà. L’Italia stessa, insieme a Ungheria e Francia, ha sostenuto una posizione più permissiva sulla gestione della privacy delle persone e sul relativo rischio di schedature di massa, mentre il resto dei membri comunitari si è dimostrato sin da subito sfavorevole a queste possibilità pur di garantire ordine pubblico. Ma quella che all’inizio sembrava una incompatibilità concettuale insormontabile, tale da rallentare persino i negoziati, alla fine si è sciolta in un compromesso capace di mettere tutti d’accordo: il riconoscimento facciale è di fatto stato vietato, salvo nei casi di evidente minaccia di un attacco terroristico, di ricerca delle vittime e nelle indagini che riguardano reati gravi come omicidi, sequestri, violenza sessuale. Gli usi non ammessi in Europa riguardano quindi la cosiddetta “polizia predittiva”, capace di dedurre la predisposizione di ognuno di noi a commettere un crimine attraverso l’analisi dei suoi dati personali, nonché la categorizzazione biometrica che prevede l’assegnazione di punti ai cittadini tenendo conto dei comportamenti sociali, delle idee politiche, della religione e dell’orientamento sessuale (pratica già sperimentata in Cina, ndr).
È stato inoltre vietato il riconoscimento delle emozioni sul posto di lavoro e nelle scuole, mettendo al bando lo sviluppo di tutti quegli algoritmi in grado di causare danni fisici o psicologici agli individui.
Sempre l’Italia, stavolta in compagnia di Germania e Francia, si è dimostrata titubante anche sui modelli fondativi dell’Ai. In pratica, secondo questi stati, l’idea di applicare norme stringenti nel merito sarebbe stata controproducente per l’Europa perché ne avrebbero rallentato l’innovazione tecnologica a favore di Cina e Stati Uniti per esempio. La soluzione iniziale proposta era l’autoregolamentazione da parte delle grandi società produttrici, benché tutte non europee, giungendo poi all’accordo finale di tenere conto di due livelli di regole diverse così da distinguere l’Ai ad alto impatto da tutti gli altri sistemi di intelligenza artificiale. La prima ha una enorme potenza di calcolo e deve a conti fatti rispettare le regole sulla trasparenza dei processi di addestramento e condividere la propria documentazione tecnica prima di essere messa sul mercato. E questo a oggi vale oggi solo per Gpt-4 e OpenAi. Tutti gli altri sistemi si adegueranno invece nel momento in cui i servizi verranno commercializzati.
A smorzare l’entusiasmo per l’approvazione di un accordo che per certi versi ha scritto una pagina della storia dell’Europa, rendendola pioniera a livello internazionale rispetto a uno dei temi più dibattuti e divisivi, ci pensano anche i tempi con cui questi negoziati sono stati condotti. L’Ue è ormai di certo il primo ordinamento giuridico a dotarsi di un testo generale sull’intelligenza artificiale, ma le sue disposizioni normative saranno effettivamente efficaci a partire dal 2026 con alcune eccezioni. I divieti sull’Ai entreranno infatti in vigore tra sei mesi, i requisiti di trasparenza tra dodici mesi e l’intera serie di norme tra circa due anni. «Tra un anno saranno garantite tutte le disposizioni riguardanti i sistemi di Ai ad alto impatto – spiega a Linkiesta Brando Benifei, capodelegazione del Partito democratico al Parlamento europeo e relatore dell’Ai Act – i tempi di applicazione dipendono dalla messa a punto delle unità di supervisione per le norme previste». Dopotutto è proprio la lineup dell’Ai Act a preoccupare i più scettici, soprattutto se si pensa ad alcuni precedenti riguardanti la lenta risposta dei regolatori europei alla nascita dei social media. Sono trascorsi quasi vent’anni tra il lancio di Facebook e l’approvazione del Digital Services Act, il regolamento dell’Ue pensato per proteggere i diritti umani online, entrato in vigore solo quest’anno. In quell’occasione, il blocco europeo affronta i problemi creati dalle piattaforme statunitensi, pur non essendo in grado di favorire pienamente gli innovatori che giocavano in casa propria.
Stavolta secondo Benifei il rischio di una sorta di anacronismo rispetto all’entrata in vigore dell’Ai Act è però da scongiurare perché l’Europa non si sta occupando della creazione di tecnologie in senso stretto, piuttosto dei suoi casi d’uso. E per questi non c’è contesto digitale con i relativi ritmi frenetici che tenga. «Un punto debole dell’accordo potrebbe però essere quello di richiedere aggiornamenti sui criteri di identificazione dei sistemi Ai ad alto impatto, da condurre nel tempo attraverso atti della Commissione europea sotto il controllo del Parlamento. Ma si tratta di una possibilità che potrà essere gestita senza limitare l’impatto dell’Ai Act», continua Benifei.
E se da un lato fanno capolino perplessità sui tempi che definiscono il percorso del regolamento, nonché sul suo testo definitivo che al momento ancora non è disponibile, dall’altro c’è una ragione che più di tante altre rende l’Europa orgogliosa di questo risultato. Parliamo della verifica di impatto sui diritti fondamentali che si è rivelata fondamentale all’approvazione dell’accordo. Sono proprio gli utenti, i cittadini, i primi a cui si dovrà guardare quando si lanciano sul mercato nuove tecnologie. Occorre tutelarne la dimensione umana e il rispetto dei dati personali. In questo contesto avrà un ruolo di punta l’ufficio europeo sull’Ai, l’istituzione di supervisione a cui si sta lavorando già dall’inizio dei negoziati e che sarà attiva nei prossimi mesi. A tal proposito, in vista dell’approvazione definitiva dell’Ai Act prevista a febbraio 2024, è pronto a partire nelle settimane in arrivo anche il percorso di compliance volontaria anticipata che permetterà a sviluppatori e fruitori dell’intelligenza artificiale di allinearsi alle nuove regole europee, così da arrivare preparati alla loro entrata in vigore ufficiale. Per le aziende che proveranno a farne a meno sono invece previste multe fino al sette per cento del loro fatturato globale. E se l’intelligenza artificiale corre veloce, l’Europa con l’Ai Act sta provando a stare al passo. Ma la partita interessante si giocherà a lungo termine, quando si capirà se sarà stata capace di sostenere l’effetto farfalla della Silicon Valley.