Ecosistema digitaleLa sfida cruciale dell’IA per le democrazie

Oreste Pollicino e Pietro Dunn, in “Intelligenza artificiale e democrazia” (Egea), esplorano l’impatto dell’intelligenza artificiale sui valori democratici e sui diritti fondamentali dell’Unione Europea, analizzando i rischi e le opportunità legati all’automazione e all’ecosistema digitale ed esaminando lo sviluppo normativo a livello globale per affrontare queste sfide

unsplash

Dignità, democrazia, stato di diritto, pluralismo, uguaglianza, rispetto dei diritti umani. Sono alcuni dei valori che l’articolo 2 del Trattato sull’Unione europea pone quale bussola su cui si fonda l’Unione e che, secondo la medesima disposizione, sono comuni agli stessi stati membri, rappresentando quindi quel patrimonio costituzionale comune del vecchio continente. 

I valori richiamati, a cui la più recente giurisprudenza della Corte di Lussemburgo ha attribuito efficacia vincolante, identificandoli peraltro quale essenza stessa dell’identità costituzionale dell’Unione, sono oggi «sotto stress» per tutta una serie di ragioni, tra cui quella più plasticamente evidente è la crisi dello stato di diritto. Crisi che consta di un insieme di concause e conseguenze la cui complessità non consentirebbe, ovviamente, un’esplorazione completa all’interno di questo volume.

L’idea alla base delle pagine che seguono è differente. Siamo convinti che guardare al rapporto tra nuove tecnologie e valori democratici possa essere un osservatorio privilegiato per indagare lo stato di salute della rule of law, non solo nel contesto digitale. In particolare, ci si concentrerà sull’impatto che l’esplosione dell’intelligenza artificiale, specialmente di natura generativa, sta producendo sui valori che caratterizzano una società caratterizzata, seguendo l’impostazione dell’articolo 2 del Tue prima richiamato, «dal pluralismo, dalla non discriminazione, dalla tolleranza, dalla giustizia, dalla solidarietà e dalla parità tra donne e uomini».

Attenzione. Nessun pre-orientamento di carattere negativo circa tale impatto caratterizzerà l’analisi e le conclusioni di questo volume. Siamo pienamente convinti, come in altre sedi si è tentato di dimostrare, che i due orientamenti meno indicati per valutare il rapporto tra tutela dei diritti e valori fondamentali, da un lato, e nuove tecnologie, dall’altro lato, siano precisamente, da una parte, quello di matrice distopica e, dall’altra, quello di base utopistica: vale a dire, quegli orientamenti che considerano il progresso tecnologico come il peggiore dei mali possibili per la tenuta di un sistema democratico oppure, al contrario, come una panacea miracolosa (che nella sua versione meno radicale assume le caratteristiche del soluzionismo tecnologico) per garantire un livello di protezione più elevato ai diritti e valori prima richiamati.

Tale convinzione non può che conservare lo stesso ruolo anche con specifico riferimento all’impatto che, sui medesimi diritti e valori, ha avuto, ha e avrà l’intelligenza artificiale (Ia). Occorre, peraltro, qualche precisazione ulteriore sul punto.

In primo luogo, sarebbe quantomeno riduttivo definire l’Ia come una mera tecnologia. Come si cercherà di spiegare più in dettaglio nel capitolo due, siamo di fronte in questo caso a un qualcosa di assai più complesso, che può forse essere definito un «ecosistema digitale» in cui gli ingredienti più importanti sono la quantità di dati a disposizione e la forza computazionale, che si traduce, anche, nella capacità di automazione e nella velocità di apprendimento. Un ecosistema, in ultima analisi, dove l’ingrediente mancante – ovviamente con tutta una serie di sfumature che saranno approfondite oltre – è il “fattore umano”. A pensarci bene, del resto, questa è la vera sfida per il costituzionalismo contemporaneo. Le società democratiche, di cui il principio personalistico è uno degli architravi strutturali, devono fare i conti – lo si ribadisce, sia nel bene, alla luce dei potenziali vantaggi, sia nel male, alla luce anche degli altrettanto significativi rischi – con uno strumentario tecnologico fondato su meccanismi di automazione che, almeno apparentemente, può fare a meno di quello che abbiamo definito come «fattore umano». Uno strumentario che dunque, tra le altre cose, sembra potere fare a meno di quelle operazioni di bilanciamento tra interessi e diritti contrapposti che non sono delegabili, in uno stato di diritto, ad alcun automatismo.

In secondo luogo, nonostante lo scenario appena descritto necessiti di riferimenti comparati, specie, ma non soltanto, di matrice transatlantica, al centro dell’analisi ci sarà l’humus giuridico europeo con le sue tradizioni costituzionali, forse sempre meno comuni ma che rappresentano, come si diceva in apertura, una bussola valoriale, scolpita nell’articolo 2 del Trattato sull’Unione europea per il futuro (e il presente) dell’Unione.

In terzo luogo, come proveremo a fare emergere nei capitoli successivi – ricostruendo sia la trasformazione dei soggetti privati operanti nel settore digitale da meri attori economici a poteri privati sia le sfide che tale trasformazione implica per il costituzionalismo, il quale ha nel suo codice genetico precisamente la finalità della limitazione del potere – ci sembra utile distinguere, da una parte, la graduale amplificazione dei processi di automazione algoritmica e le corrispondenti reazioni giurisprudenziali e normative dell’Unione europea e, dall’altra parte, le conseguenze sul piano della tutela dei diritti fondamentali che sono proprie dell’intelligenza artificiale, specialmente di carattere generativo, la quale va ben al di là della semplice automazione algoritmica prima richiamata.

In quarto luogo, se è vero che nessuna tecnologia può essere considerata neutrale, a maggior ragione questo è vero per l’ecosistema digitale rappresentato dall’intelligenza artificiale. Attenzione: la non neutralità non ha un’accezione né negativa né positiva, ma soltanto tecnica. La creazione e lo sviluppo di qualsiasi tecnologia è, inerentemente, un atto moralmente carico, in quanto lo stesso design e le caratteristiche attribuite a quella tecnologia ne influenzeranno necessariamente l’impiego in una direzione o nell’altra. Così, mentre un coltello da burro difficilmente potrà essere utilizzato per ferire o uccidere una persona, un ben diverso utilizzo sarà generalmente fatto della baionetta. Allo stesso modo, come si vedrà nei prossimi capitoli, le modalità di costruzione dell’Ia – ivi inclusi il design del codice e la base di dati utilizzata per allenare la macchina – avranno necessariamente un impatto diretto e significativo, tutt’altro che neutrale, sugli output generati dal sistema.

Da quando, nella prima metà del 2023, è apparso evidente, soprattutto a seguito del caso ChatGpt, lo scatto in avanti – in termini di rischi, opportunità e distanza rispetto alla regolazione giuridica – che i nuovi modelli di carattere generativo portavano con sé, il nuovo ecosistema digitale ha occupato sempre più spesso le prime pagine dei grandi quotidiani. Da quel momento in poi allucinazioni e rischi esistenziali connessi all’emergere dell’intelligenza artificiale sono divenuti il pane quotidiano non solo per i media, ma anche per gli esperti in materia, il cui numero è cresciuto a dismisura, nonché per le istituzioni – tanto a livello nazionale, quanto a livello europeo e persino globale – e, ovviamente, per i poteri, sia pubblici sia privati.

Gli ultimi mesi si sono caratterizzati, anche da un punto di vista più strettamente giuridico, per una vera propria corsa o, meglio, rincorsa alla regolazione del nuovo ecosistema digitale: una competizione geopolitica di natura globale che ha visto l’emergere di una serie di normative dentro e fuori l’Europa. Dal nuovo Regolamento europeo sull’intelligenza artificiale (Artificial Intelligence Act, Aia) approvato nella prima metà del 2024, che conferma il primato europeo dal punto di vista regolatorio – ma non tecnologico – passando per il tentativo cinese (a forte traino dirigista) di trasformare i propri campioni nazionali dell’intelligenza artificiale in campioni globali, giungendo fino all’ordine esecutivo di Biden di ottobre 2023, che per la prima volta segna un clamoroso passaggio negli Stati Uniti da un meccanismo di self-regulation a una parziale co-regolamentazione del settore, si è assistito di recente a un vertiginoso incremento degli sforzi regolativi in materia di intelligenza artificiale. La Dichiarazione di Bletchley, adottata a Londra a novembre 2023, ha inoltre rappresentato essa stessa un tentativo di promuovere sul piano internazionale un approccio quanto più cooperativo possibile nell’adozione di strategie di governance nel settore. Nel frattempo, il 17 maggio 2024, durante la riunione annuale del Comitato dei Ministri del Consiglio d’Europa, è stata approvata la Convenzione Quadro sull’Intelligenza Artificiale, primo trattato internazionale giuridicamente vincolante in materia di Ia.


 

Tratto da “Intelligenza artificiale e democrazia” (Egea) di Oreste Pollicino e Pietro Dunn, pp. 5, 29,00€

Le newsletter de Linkiesta

X

Un altro formidabile modo di approfondire l’attualità politica, economica, culturale italiana e internazionale.

Iscriviti alle newsletter