Non automatizzare l’emergenza L’intelligenza artificiale è una risorsa, ma non è attrezzata per le crisi

Gli algoritmi che funzionano in condizioni normali rischiano di venire sopraffatti in un contesto di forte cambiamento. Secondo l’analisi del think tank Centres for European Policy Network, servono revisioni puntuali

Foto di florianglier2105 da Pixabay

Che si tratti di protezione contro le frodi con le carte di credito, di creazione di modelli climatici o di distribuzione delle forze di polizia, l’intelligenza artificiale (Ia) sta penetrando sempre più profondamente nella vita quotidiana. Però i dati necessari a questo scopo provengono per lo più da fasi di relativa stabilità, che non possono sempre essere facilmente applicati in tempi di crisi. Il Centres for European Policy Network (Cep) ritiene che ci troviamo di fronte ad un rischio sistemico ancora sottovalutato e chiede l’introduzione di regole più adatte.

«L’uso dell’Ia può apparire molto utile nella soluzione di crisi. Tuttavia, gli algoritmi ottimizzati con dati raccolti in tempi “normali” possono portare inconsapevolmente a decisioni sbagliate. È quindi necessario disporre di regole sensibili al rischio per l’Ia in caso di crisi, soprattutto in ambienti sempre più automatizzati», afferma l’esperto digitale del Cep, Anselm Küsters, che ha analizzato l’ultimo approccio normativo della Commissione in tema.

Küsters cita, come esempio, gli algoritmi per calcolare il rischio di frode con le carte di credito durante la pandemia da coronavirus. «Improvvisamente, molti facevano acquisti solo su Internet. Gli strumenti basati sull’intelligenza artificiale ne sono stati sopraffatti ed hanno bloccato inutilmente molte transazioni». Il Cep quindi sostiene che un approccio basato sul rischio, come previsto attualmente dalla proposta normativa europea sull’Ia, potrebbe quindi non risultare sufficiente, poiché è impossibile conoscere il rischio dinamico di un sistema in crisi, soprattutto in contesti in forte cambiamento.

«Tuttavia, se si intende proseguire accettando l’approccio basato sul rischio dell’attuale bozza, si dovrebbe tenere conto anche dei pericoli che sorgono in tempi di “policrisi”, classificando una percentuale maggiore di sistemi guidati dall’Ia come sensibili alle crisi e quindi ad alto rischio», raccomanda l’esperto del Cep. Inoltre, è fondamentale che degli audit sull’Ia vengano svolti regolarmente con personale e risorse tecniche sufficienti, facendo però attenzione, contemporaneamente, a non sovraccaricare le start-up di adempimenti burocratici.

Secondo Küsters, i politici, gli imprenditori e i giornalisti entusiasti dell’Ia, dovrebbero, in generale, iniziare a tenere maggiormente conto del potenziale di danno dell’Ia in un contesto di «policrisi».

Continua a leggere sul sito del Cep consultando il report.