AI, atto primo La via europea all’intelligenza artificiale è un buon compromesso

L’Europarlamento approva la proposta di regolamento: ai sistemi generativi (come ChatGpt) è richiesta trasparenza, senza rallentarne lo sviluppo. Per le aziende il mercato dell’identificazione biometrica è di nicchia: per questo sono più inclini a concessioni, spiega DLA Piper

The "Soft Hand" project of the Center for Robotics and Intelligent Systems (CRIS) SoftRobotics for Human Cooperation and Rehabilitation lab
Foto di Piero Cruciatti/Ec Av

La presidente del Parlamento europeo, Roberta Metsola, non ha resistito. «Prima di venire qui, ho chiesto a ChatGpt» come commentare, dice nella conferenza stampa a Strasburgo che celebra l’approvazione dell’AI Act da parte della plenaria. «Dimostra quanto l’intelligenza artificiale (IA) faccia già parte della nostra vita». L’aula ha votato con ampia maggioranza (quattrocentonovantanove voti a favore, ventotto contrari e novantatré astensioni) e i negoziati del «trilogo», con Commissione e Consiglio, sono cominciati il giorno stesso. «La tecnologia evolve e apre nuove possibilità», è il punto della presidente, «non possiamo permetterci di restare stagnanti o avere paura del futuro».

Il voto della plenaria

L’approccio delle istituzioni comunitarie è «human centered», come è stato ripetuto: vorrebbe mettere al centro l’uomo. Cioè gli utenti. In sostanza, la proposta di regolamento articola livelli di rischio crescente, da «minimo» a «inaccettabile»: più si risale questa piramide, più aumentano le tutele e, parallelamente, le garanzie chieste agli operatori. «Un sistema basato sull’analisi del rischio era necessario – spiega a Linkiesta l’avvocato Giulio Coraggio, responsabile del dipartimento di Intellectual Property & Technology di DLA Piper –. Le trattative in corso sono evidentemente su cosa far rientrare in ciascuna categoria, che comporta l’applicazione di un regime più o meno severo.

Vietati del tutto sono i sistemi di social scoring, sui quali però non c’è stato scontro politico. Il Partito popolare europeo ha invece provato (invano) a far passare un emendamento per consentire alle forze dell’ordine l’uso dell’identificazione biometrica in tempo reale, per esempio in caso di rapimenti o per intercettare terroristi in fuga dopo un eventuale attentato. «È stato un tentativo di politicizzarlo e trasformarlo in uno strumento di propaganda», per il correlatore del testo Brando Benifei (Partito democratico). «Gli accordi vanno rispettati, sennò rischi di perdere la faccia e i risultati che potresti ottenere», rincara l’eurodeputato.

«La mia sensazione è che il terreno dei dati biometrici sia quello su cui le aziende sono più disposte a fare delle rinunce – spiega Coraggio –, per spostare il focus da argomenti che invece per loro sono più rilevanti. L’utilizzo dei sistemi di IA per l’identificazione biometrica è un mercato di nicchia, non penso che sia il cuore del mercato a cui le aziende stanno puntando. C’è, secondo me, un effetto distrazione: ci si focalizza su questi aspetti qui come arma negoziale, per poi ottenere come contropartita delle concessioni più importanti su altri terreni».

Su quali? «Per esempio, un punto decisivo su cui c’è una comunanza di visioni tra gli Stati Uniti e l’Europa è l’analisi dei potenziali bias dell’algoritmo. Fare in casa o esternalizzare a un fornitore terzo un’analisi di conformità ha un impatto sui costi, sulla tempistica, ed evidentemente l’azienda, se la fa in casa, riesce a plasmarla meglio sulle proprie esigenze». I sistemi di IA generativa, come ChatGpt, nella proposta dell’Europarlamento, dovranno rispettare requisiti di trasparenza (dichiarando quale contenuto è stato generato dall’IA, anche per distinguere le immagini deep-fake e da quelle reali) e pubblicare sintesi dettagliate dei dati protetti dal diritto d’autore utilizzati per il loro addestramento.

«Negli ultimi due mesi, il tema più caldo sono state prima le “Generative artificial intelligence”, poi è stata introdotta un’ulteriore categoria, i “Foundation models”», spiega l’esperto di DLA Piper. «Tutto per regolare strumenti come ChatGpt che sono sulla bocca di tutti. Quello raggiunto ora dovrebbe essere un valido compromesso, perché viene richiesto un conformity assessment, ma per strumenti come i “Foundation models” non occorre sia fatto da un terzo, il che avrebbe complicato ulteriormente l’analisi, se pensiamo che tecnologie come queste vengono aggiornate almeno una volta ogni due, tre mesi. Avrebbe ingessato notevolmente lo sviluppo, oltre a dover comportare l’introduzione di eccezioni quando le modifiche sono necessarie, per esempio per riparare certi bug».

«Forse si è persa un po’ un’occasione perché si sarebbero dovute trovare delle regole più chiare, in questo puzzle tra normative diverse – conclude Coraggio –. Sulla proprietà intellettuale, si sarebbe potuta chiarire l’applicabilità della “copyright text and data mining exception” al training dei sistemi di IA prevista dalla Direttiva Copyright creando una maggiore certezza del diritto. Lo stesso sarebbe potuto avvenire in materia di privacy, quando l’utilizzo dei dati personali è puramente incidentale e con riferimento ai diritti degli interessati. L’IA è infatti una tecnologia dove non si possono semplicemente rimuovere dalla memoria della macchina delle informazioni che sono state utilizzate per il suo addestramento, perché questo potrebbe richiedere un nuovo training dell’intero algoritmo».

La conferenza stampa dell'Ai Act
(foto Fred Marvaux)

A un anno esatto dalle elezioni europee, «siamo molto preoccupati», dice Metsola ai giornalisti. L’AI Act, infatti, avrà un tempo di trasposizione di due anni, anche se Benifei spera sia possibile anticipare l’entrata in vigore di alcune sue parti. Tra i timori della presidente c’è il fatto che per la prima volta in quattro Paesi europei voteranno i sedicenni, una frangia della società abituata a informarsi in modo diverso da quelle più “vecchie”. In ogni caso, il regolamento introdurrà strumenti di deterrenza, chiarisce l’altro correlatore, il romeno Dragos Tudorache. Tra questi: l’interruzione del servizio, il ritiro dal mercato o multe fino al sette per cento dei ricavi.

«Ci aspettiamo che la normativa europea divenga una sorta di benchmark a livello mondiale. Allora non so se questo è un augurio o, meglio, una speranza: perché qualora non ci fosse un “Bruxelles effect” e, quindi, la normativa degli Stati Uniti e della Cina non seguisse il modello europeo, ecco in quel caso c’è un rischio di danno o addirittura discriminazione delle aziende europee. Il time to market di queste tecnologie potrebbe rallentarsi e quindi portare a uno sfruttamento di questa tecnologia da parte di imprese europee più lento», conclude l’avvocato Coraggio.

«Secondo me le aziende che hanno investito in questo mercato hanno una presenza così forte negli Stati Uniti e nell’Unione europea da non potersi permettere di non lanciarli nell’Unione europea. Ci sono alcuni prodotti che inizieranno a essere commercializzati negli Stati Uniti e poi entreranno in Europa, ma comunque l’Unione europea è il mercato più grande dopo gli Stati Uniti. Gran parte delle imprese americane che hanno investimenti importanti in Open AI – se noi pensiamo a Microsoft e Google – difficilmente rinuncerebbero a lanciare i propri prodotti sul mercato comunitario».

Questo articolo è tratto dalla newsletter di “Linkiesta europea”, ci si iscrive qui.