Strasburgo. Dopo l’avvento di Chat Gpt, per un po’ non s’è parlato d’altro che di intelligenza artificiale. È lì che molti si sono accorti del suo potenziale. Forse, è stato quello il momento in cui è diventata familiare, insieme alla sua sigla: «Ai», da Artificial Intelligence. Una passione tanto più improvvisa quanto poco se ne parlava prima, fuori dal settore, come se non avessimo in tasca Siri o i nostri genitori non dialogassero con Alexa. Per capirlo è servita una foto fake del Papa con il giubbino da trapper, ma tant’è, ci ha fatto lo stesso effetto di una Bibbia stampata con i caratteri mobili a Magonza – e in fin dei conti, qualche parallelismo c’è. Quello che ci fossero arrivati prima i cinesi non è l’unico.
Potremmo dilungarci su come il dottor Bi Sheng abbia battuto di quattro secoli Gutenberg, ma il punto di questa newsletter è un altro. Ci sono tecnologie che cambiano la Storia: ci sono buone probabilità che l’Ai vada iscritta a questa categoria. Ma l’Ai non è “solo” Chat Gpt: è più di un giochino con cui farsi scrivere una tesina, a cui chiedere la bio di un personaggio famoso per ridere dei suoi errori, di una prodigiosa macchina per generare immagini. Per inquadrarla, ma soprattutto tracciare dei limiti a tutela di noi utenti, ultimo girone della piramide alimentare, l’Europa sta facendo uno sforzo legislativo con ambizioni altrettanto epocali.
L’Artificial Intelligence Act, per gli amici «Ai Act», è stato presentato dalla Commissione europea ad aprile 2021, un anno dopo il primo white paper in materia. Lo scorso dicembre, il Consiglio ha preso posizione, per esempio estendendo ai privati il divieto al «social score» (il punteggio assegnato ai cittadini, introdotto in Cina) ma escludendo dal regolamento gli scopi militari, per la difesa o sicurezza nazionale. Oggi il testo arriva in due commissioni del Parlamento europeo, quella sul Mercato interno e la protezione dei consumatori (Imco) e quella per i Diritti civili, la giustizia e gli affari interni (Libe). Il corelatore è l’italiano Brando Benifei, del Partito democratico.
Una cosa da sapere, sull’Ai Act, è la sua impostazione. Si articola su quattro livelli di rischio: la regola è che più ci sono pericoli, più sono esigenti le restrizioni. Il livello più alto, non a caso catalogato come «inaccettabile», è vietato del tutto. Subito sotto c’è il «rischio elevato», su cui serve cautela (ci ricadono, per esempio, i software che scremano i Cv per le offerte di lavoro) e per cui vengono introdotti requisiti molto stringenti, nonché una valutazione di conformità prima che i sistemi possano essere messi sul mercato. In caso di rilevanti modifiche, tra l’altro, l’approvazione deve ripartire daccapo. Seguono, come nello schema qui sopra, «rischio limitato» e «minimo».
Nel «rischio elevato» troviamo anche l’identificazione biometrica. «Il testo della Commissione europea non vieta il riconoscimento biometrico, diciamo, ex post e vieta quello in tempo reale con alcune eccezioni – spiega Benifei a Linkiesta –. Noi invece vogliamo vietare totalmente quello in tempo reale e sottoporre il suo utilizzo all’autorizzazione giudiziaria per i crimini già avvenuti». Su questo punto il Partito popolare europeo (Ppe) ha chiesto un voto separato: rispetto al compromesso al vaglio dell’Europarlamento, il centrodestra potrebbe dirsi contrario per allinearsi alla linea più light della Commissione.
Il capodelegazione del Pd è convinto si possa arrivare a una «maggioranza ampia». Oltre al suo gruppo, Socialisti e democratici, dovrebbe esserci il sostegno di Renew e dei Verdi, quello del Ppe con l’incognita sull’identificazione biometrica; su alcune parti anche di Sinistra (Gue) e Conservatori (Ecr). Ci sono due capitoli su cui, secondo Benifei, potrebbe esserci opposizione – rispettivamente da sinistra e da destra – magari con degli emendamenti nella prossima plenaria, quando il testo dovrebbe approdare in aula.
La prima è prevedere un’esenzione dal Gdpr (il regolamento sulla protezione dei dati personali) «per correggere i bias discriminatori», se necessario anche usando informazioni sensibili. La seconda è una «verifica di impatto sui diritti fondamentali» per gli «utilizzatori intermedi», quindi non gli sviluppatori, ma imprese e pubbliche amministrazioni. È importante conoscere questi quattro scaglioni di rischio decrescente, perché lo spostamento di una tecnologia dall’uno all’altro, magari nel corso delle trattative con il Consiglio, implicherebbe tutele diverse.
Proprio un anno fa, l’Europarlamento adottava le raccomandazioni finali della commissione speciale sull’Intelligenza artificiale in un’era digitale (Aida). Vi si leggeva che «l’Ue è rimasta finora indietro nella corsa globale per la leadership tecnologica. C’è il rischio che le future norme vengano sviluppate altrove e da attori non democratici». Un problema quasi strutturale, per i legislatori, è il tempo di reazione di fronte a un’innovazione che corre inesorabilmente più veloce di loro. Per essere efficace, l’Ai Act deve riuscire ad agganciare il trend, per gestirlo nei prossimi anni.
«È un tema oggettivamente problematico. Sono da dibattere, quando andremo a negoziare con il Consiglio, i tempi di entrata in vigore dell’atto» e la loro gradualità, conferma Benifei. La piena efficacia è prevista dopo due anni; alcuni aspetti anche prima. In origine si sperava di cominciare il periodo di transizione a fine 2022. Si è già accumulato, quindi, un po’ di ritardo. «Secondo me, l’entrata in vigore dei passaggi, che ha vari step, potrebbe essere velocizzata», dice l’eurodeputato. Sulla tenuta sul lungo periodo: «Per come è scritto, il regolamento ha diversi elementi di flessibilità, anche perché non si concentra sulle tecnologie, ma sugli usi. Prevede diversi meccanismi di aggiornamento e anche grazie alle autorità nazionali di supervisione può in qualche modo essere interpretato e adattato».
Nella giornata dell’Europa, martedì, il cancelliere tedesco Olaf Scholz ha detto alla plenaria che all’Ue manca ancora una dimensione geopolitica. Sull’intelligenza artificiale l’Europa definirà i suoi standard, ma ci sono altri posti del mondo dove salvaguardie simili non esistono. Anche l’Ai ha una dimensione globale. «Scholz è stato alla riunione del nostro gruppo – racconta l’eurodeputato dem – e ha evidenziato il valore del mercato comune come elemento di unificazione dell’Europa. Credo che questo valga, in una certa misura anche per l’Ai Act. Perché la forza economica europea, il fatto che il suo mercato vale molto, ci dà la forza di proporre dei modelli che entrano in dialogo con il resto del mondo»
Qualcosa di simile si è già visto con il Regolamento generale sulla protezione dei dati, che ha fatto scuola. «Dopo l’introduzione del Gdpr nel 2016, si è osservato un cosiddetto “effetto Bruxelles”, laddove molte organizzazioni multinazionali hanno scelto di armonizzare le loro pratiche per la gestione internazionale dei dati alle leggi europee per ragioni pratiche», si legge in un articolo accademico su Minds and Machines, firmato tra gli altri da Luciano Floridi. L’Ai Act vorrebbe ripetere quel successo made in Europe.
Questo articolo è tratto dalla newsletter di “Linkiesta europea”, ci si iscrive qui.