Sullo sviluppo dell’Intelligenza Artificiale (AI)e dei suoi variegati strumenti si stanno facendo passi da gigante. Nel 2022, secondo l’ultimo rapporto di Tortoise Intelligence (Global AI Index), gli investimenti mondiali nelle società di intelligenza artificiale sono aumentati del centoquindici per cento dal 2020, segnando la più grande crescita anno su anno da due decenni.
L’investimento totale in intelligenza artificiale ha raggiunto i 77,5 miliardi di dollari nel 2021, e raggiungerà i centocinquanta miliardi nel 2025 (rapporto Kpmg), alimentando la sfida per la super intelligenza artificiale in particolare tra Cina e Stati Uniti. Lo stesso possiamo dire sullo sviluppo della potenza di calcolo computazionale.
Nel frattempo è cresciuto il dibattito sia tra gli specialisti sia tra i decisori politici sulla “questione etica” legata allo sviluppo dell’AI e ai suoi usi. Tra i primi si sono formati grossomodo due gruppi: chi non vede alcun pericolo che l’intelligenza artificiale possa avere il sopravvento su quella umana – come Yann LeCun, capo del team di AI di Facebook/Meta –, e chi come Demis Hassabis, fondatore di DeepMind (oggi Google), avverte un potenziale pericolo da tenere sin da subito sotto controllo.
Grandi società come Google e Microsoft e persino il Dipartimento della Difesa Americano rilasciano periodicamente dichiarazioni e documenti pubblici che segnalano il loro impegno al rispetto dell’etica e dell’equità nello sviluppo di sistemi basati sull’intelligenza artificiale.
Ma nascondono una realtà fondamentale: anche gli sviluppatori di intelligenza artificiale con le migliori intenzioni possono affrontare compromessi intrinseci, dove massimizzare un tipo di equità significa necessariamente sacrificarne un altro.
Si viene così a creare una discriminazione (osservata in vari casi) in cui l’intelligenza artificiale provoca distorsioni senza garantire la par condicio verso i potenziali utenti/soggetti. Il tema è noto (forse non abbastanza) ed è crescente la necessità di una riflessione sul tema nelle istituzioni politiche – oltre a quelle universitarie – allo scopo di mitigare il problema della discriminazione (bias), evitare l’uso di tali strumenti se non per scopi benefici (dual-use) e a favore dell’intera umanità (equità).
Sono comunque in corso alcuni sforzi legislativi. I senatori americani Ron Wyden con il collega Cory A. Booker e l’Onorevole Yvette D. Clarke hanno co-sponsorizzato l’Algorithmic Accountability Act del 2022, un disegno di legge per portare nuova trasparenza e logiche di supervisione da parte terza di software, algoritmi e altri sistemi automatizzati che vengono utilizzati per prendere decisioni critiche su quasi ogni aspetto della vita degli americani.
«Se qualcuno decide di non affittarti una casa a causa del colore della tua pelle, è una vera e propria discriminazione illegale. Il nostro disegno di legge alzerà il sipario sugli algoritmi segreti che possono decidere se gli americani possono vedere un medico, affittare una casa o entrare in una scuola. La trasparenza e la responsabilità sono essenziali per offrire ai consumatori la scelta e fornire ai responsabili politici le informazioni necessarie per stabilire le regole della strada per i sistemi decisionali critici», ha affermato Wyden.
Se approvato dal Congresso, il disegno di legge obbligherebbe le aziende a condurre valutazioni sia d’impatto (audit) per eventuali discriminazioni, sia sulla reale efficacia dei loro sistemi. Istituirebbe inoltre, per la prima volta, un archivio pubblico presso la Federal Trade Commission di questi sistemi di intelligenza artificiale e aggiungerebbe settantacinque dipendenti alla Commissione per far rispettare la legge.
Un gran passo avanti ma non esente da critiche. Julia Stoyanovich, direttrice del NYU Center for Responsible AI nel valutare positivamente l’introduzione sistematica delle valutazioni di impatto (audit) aggiunge: «Abbiamo anche bisogno di pezzi di regolamentazione molto più specifici che ci dicano come rendere operativi alcuni di questi principi guida in domini molto concreti e specifici». Un esempio è una legge approvata a New York nel dicembre 2021 ben descritta dalla stessa Stoyanovich in un articolo del The Wall Street Journal del settembre dello scorso anno.
Tale provvedimento legislativo “regola” l’uso degli algoritmi a base dell’intelligenza artificiale utilizzata per i processi di assunzione che aiutano a valutare le domande e a formulare le relative raccomandazioni. Stabilisce che i datori di lavoro possono utilizzare tali sistemi di AI solo dopo che sono stati eseguiti gli audit per scoprire eventuali pregiudizi e che i candidati abbiano ottenuto spiegazioni su quali siano i fattori che entrano in gioco nella decisione dell’AI, ispirandosi concettualmente alle etichette nutrizionali che ci dicono quali ingredienti compongono il nostro cibo prima di ingerirlo.
Nello dicembre dello scorso anno, il procuratore generale Karl Racine di Washington DC ha presentato un disegno di legge che renderebbe illegale per le aziende utilizzare algoritmi che discriminano gruppi di persone (per sesso, per etnia) quando si tratta di prestiti, alloggi, istruzione, posti di lavoro e assistenza sanitaria nella capitale degli Stati Uniti. Il disegno di legge ricalca quanto proposto al Senato.
Tuttavia, per ora, la regolamentazione è così nascente che l’equità algoritmica è per lo più un selvaggio Far West.
I casi di discriminazione e di non equità legati all’uso di sistemi collegati all’intelligenza artificiale, soprattutto negli Stati Uniti, si sprecano e sono ben documentati. Cito giusto un’indagine dell’agosto dell’anno scorso da parte di The Markup, un’agenzia americana senza scopo di lucro che con metodi scientifici analizza l’impatto delle nuove tecnologie sulla popolazione.
Analizzando due milioni di richieste di mutui convenzionali negli Stati Uniti i ricercatori di The Markup hanno rilevato che i sistemi di intelligenza artificiale utilizzati dagli istituti di credito a livello nazionale a supporto per il vaglio delle singole richieste avevano il quaranta per cento di probabilità in più di rifiutare il mutuo ai richiedenti di origine latino-americana – arrivando all’ottanta per cento per i richiedenti neri – rispetto ai richiedenti bianchi per tipologie di mutui comparabili, per l’acquisto della casa.
L’Unione europea dal canto suo nel maggio 2019 ha pubblicato una nuova serie di linee guida per garantire che l’AI sia «affidabile». La raccomandazione sull’intelligenza artificiale – il primo standard intergovernativo sul tema – è stata adottata dal Consiglio dell’Ocse a livello ministeriale. Mira a promuovere innovazione e fiducia nell’intelligenza artificiale attraverso una gestione responsabile, garantendo il rispetto dei diritti umani e dei valori democratici. L’AI Act dell’Unione europea, si affida a una forma di co-regolamentazione, in cui Bruxelles definisce gli obiettivi (i criteri per un’AI affidabile) e le società devono occuparsi della valutazione interna di conformità.
Ma si sta anche lavorando a meccanismi legali per far rispettare tali protezioni. Un disegno di legge appena presentato chiamato AI Liability Directive darà ai cittadini europei il diritto di citare in giudizio le aziende per danni se sono stati danneggiati da un sistema automatizzato di intelligenza artificiale.
In assenza di una solida regolamentazione, un gruppo di filosofi della Northeastern University di Boston ha pubblicato un rapporto nell’agosto dello scorso anno che illustra come le aziende possano passare dalle “banalizzazioni” sull’equità dell’AI alle azioni pratiche. «Non sembra che otterremo presto i requisiti normativi», sostiene uno dei co-autori, John Basl. «Quindi dobbiamo davvero combattere questa battaglia su più fronti».
Il rapporto sostiene che prima che un’azienda possa affermare di dare priorità all’equità, dovrebbe prima decidere di quale tipo di equità si debba più preoccupare. In altre parole, il primo passo è specificare il contenuto dell’equità, formalizzare che si sta scegliendo l’equità distributiva, ad esempio, rispetto all’equità procedurale. Solo dopo eseguire il secondo passo, cioè capire come rendere operativo quel valore in modi concreti e misurabili.
Sulla stessa lunghezza d’onda un interessante documento pubblicato lo scorso giugno dal titolo auto esplicativo “Who Audits the Auditors? Recommendations from a field scan of the algorithmic auditing ecosystems” a firma di tre ricercatori americani che propongono sei raccomandazioni prioritarie per cercare di superare l’assenza di standard e di norme che rendono gli audit algoritmici (o audit AI) anche se eseguiti da terze parti, difficili da verificare e potenzialmente in condizione di aumentare, piuttosto che mitigare, pregiudizi e danni.
In un sondaggio dell’estate scorsa eseguito dal blog che si occupa di AI (AI Impacts), rivolto a più di settecento ricercatori sulla AI, il quarantotto per cento degli intervistati ha dichiarato di pensare che ci fosse un dieci per cento o più di probabilità che gli effetti dell’intelligenza possano essere «estremamente gravi».
Al netto degli sforzi di istituzioni e soggetti privati per cercare di guidare la ricerca dell’intelligenza artificiale verso un’etica comune che si rifaccia alla trasparenza, all’equità, alle non discriminazioni e al benessere dell’umanità, la frase più giusta è quella ripresa dal team di Anthropic, una società di San Francisco di ricerca e sicurezza per l’intelligenza artificiale che lavora per costruire sistemi di intelligenza artificiale affidabili, interpretabili e guidabili: «Stiamo, in un certo senso, costruendo l’aereo mentre sta decollando». Anche allacciarsi le cinture, forse, potrebbe non avere più un senso.