Psicopatia digitaleL’intelligenza allucinata di ChatGPT che snobba le leggi dell’Unione europea

Le somiglianze dell’IA con il cervello aumentano ed ecco gli imprevisti. La macchina inventa risposte false per non ammettere di non sapere, come uno studente furbetto, e lo fa violando la privacy. Così gli avvocati si mobilitano

Il nome importa poco, perché potrebbe essere chiunque di noi o di svariati miliardi che hanno abdicato alla privacy con la scusa che i social facevano ritrovare antichi compagni di classe delle medie. Ma lui è uno famoso in Austria e il fatto che ChatGPT abbia sbagliato la data suo compleanno l’ha fatto innervosire. Ancor di più lo ha fatto imbestialire il fatto che Open AI abbia snobbato la sua richiesta di rettifica del dato, adducendo spiegazioni da bot, quindi oggettivamente stupide.

Basta moltiplicare questo incidente per tutti quei dati che l’IA ha ingurgitato sulle persone per scoprire che parlando con il bot ognuno di noi potrebbe sentirlo sparare vere e proprie allucinazioni: in una ideale biografia potremmo risultare contemporaneamente venticinquenni sposati con una cinquantenne con il nome di una nostra ex di trenta anni fa. 

L’abbiamo sperimentato tutti come un limite del mezzo: risposta non corretta, due pesi e due misure, spessissimo imprecise come dimostra l’esito della nostra richiesta sul compleanno di una persona famosa scelta a caso come Paolo Mieli (lo ha invecchiato di diciannove giorni).

 

Abbiamo chiesto a ChatGPT una biografia di Paolo Mieli che in realtà è nato il 25 febbraio del 1949.

 

È un problema quando le informazioni fornite dal chatbot di OpenAI si riferiscono alle persone. Il GDPR intima che le informazioni sulle persone immesse in rete debbano essere accurate e verificate. Dunque, l’attivista della privacy Max Schrems, ha presentato alle autorità della privacy del suo paese, l’Austria, una denuncia contro OpenAI per violazione del Regolamento europeo sulla protezione dei dati.

Il bambino che fa il furbo
Avete presente quando il ragazzino che non ha studiato si inventa le risposte durante le interrogazioni? Questa improvvisazione maldestra è stato proprio l’esempio che il Noyb ha portato all’attenzione del Garante. In varie occasioni infatti ChatGPT ha ripetutamente fornito informazioni errate invece di confessare agli utenti di non possedere o non poter condividere i dati.

«Inventare le risposte va bene per i compiti degli studenti, ma non per i dati sulle persone», è la testimonianza degli avvocati che hanno iniziato la causa. La legislazione dell’Unione europea dal 1995 prescrive la massima accuratezza nella gestione dei dati personali. Un principio che è passato di default nell’articolo 5 del GDPR. Chi è colpito dalla distorsione della propria biografia o dal disvelamento di informazioni private ha anche il diritto di pretendere la rettifica dei dati inesatti ai sensi dell’articolo 16 della stessa normativa. Questo può anche significare la cancellazione di quelle informazioni. Poi c’è l’articolo 15 che obbliga le aziende a esibire su richiesta i dati archiviati sulle persone e quali siano state le fonti consultate.

Dice il Noyb: «Se un sistema non è in grado di produrre risultati accurati e trasparenti non può essere utilizzato per generare e divulgare dati sulle persone». Maartje de Graaf, avvocata esperta in protezione dei dati per Noyb e studiosa della legalità dei rapporti uomo-macchina a Utrecht è stata interpellata sul caso: «Inventare informazioni false è già di per sé abbastanza problematico e fa riflettere», ha commentato, «ma quando si tratta di informazioni false sulle persone, le conseguenze possono essere gravi. È chiaro che le aziende non sono in grado di rendere i chatbot come ChatGPT conformi alla legge dell’Unione, quando trattano dati relativi a persone fisiche. Da qui la conseguente tesi dell’accusa: questo sistema non può essere utilizzato per generare dati sulle persone. La tecnologia deve seguire i requisiti legali, non il contrario».

Ma qual è la posizione ufficiale di OpenAI? Da quando sono costantemente monitorati dai media, i vertici della società sono stati più volte indicati come colpevoli di violazioni della privacy. Ma anche di nutrire una macchina che soffre di schizofrenia (lo ha ammesso anche il Ceo di Google) e prese di distanza da personaggi come Elon Musk. Ebbene, la loro risposta è sempre quella: lavoriamo sul calcolo delle probabilità, non sulla verità: «Si tratta di risposte alle richieste degli utenti prevedendo le prossime parole più probabili che potrebbero apparire in risposta a ogni richiesta». Semplificando ulteriormente, l’azienda dispone dei dati, ma di fatto sono “dati di addestramento” e il fatto inquietante è che al momento non c’è modo di garantire che ChatGPT mostri agli utenti informazioni corrette. Talmente inquietante che sono in tanti a chiedersi se sarà mai possibile garantire questa verità. 

Gli stessi bug che stimolano questi interrogativi digital-esistenziali, sono noti per provocare all’intelligenza artificiale generativa vere e proprie allucinazioni. O meglio, risposte che, detto in una sintesi che non dà conto della grandezza del fenomeno, forniscono risultati semplicemente inventati.

Il peccato originale
La discussione sull’attendibilità di ChatGPT e simili si è fatta molto accesa nell’ultimo anno, al punto da essere causa di licenziamenti noti, baruffe ed emersioni di report segreti. In particolare la principale accusatrice dei Big tech coinvolti è l’ex dipendente di Google Timnit Gebru, licenziata per aver svelato modelli di apprendimento basati su pregiudizi di stampo razzista e sessista. Con uno studio reso noto a marzo del 2023 la scienziata e i suoi colleghi sono giunti alla conclusione che i Language Model nell’Intelligenza artificiale non hanno alcuna comprensione del significato delle parole o delle espressioni che generano.

In effetti non sono costruiti per averlo, ma piuttosto individuano schemi verbali ricorrenti nei dati e li ripetono, li mischiano, come fanno i pappagalli. Motivo per cui si utilizza la definizione di pappagallo stocastico per spiegare il livello di inconsapevolezza della macchina. Ma c’è anche un rapporto del New York Times, che indica una forbice forse troppo ampia del margine di errore:«I chatbot inventano informazioni almeno il tre per cento delle volte, con punte del ventisette per cento».

Non è che non vogliamo correggere l’IA, è che non sappiamo come farlo
L’allarme del Noyb però non nasce tanto dal fatto che la data di nascita della persona cui ChatGPT ha rovinato il compleanno sia errata, ma piuttosto dall’atteggiamento di OpenAI che ha rifiutato la sua richiesta di rettifica adducendo che non è possibile correggere i dati. OpenAI sembra più che altro voler far credere all’opinione pubblica di avere un potere limitato sull’IA, ovvero soltanto quello di filtrare o bloccare i dati su alcuni prompt (per esempio il nome della persona in oggetto) ma senza garantire che ChatGPT smetterà di processare altre informazioni del reclamante.

È come se si stesse cercando di imporre una legge a una macchina in grado di comprenderla e di correggersi. Non è possibile. Forse giocano sui nostri ricordi cinematografici e vorrebbero convincerci di essere davanti al mostro scacchista di War Games, in grado di ridurre a una partita la possibilità di far scoppiare la terza guerra mondiale.

C’è di sicuro un dubbio sulla possibile malafede di OpenAI. Perché non ha risposto alla richiesta di accesso ai dati del reclamante? Una mossa che viola chiaramente il GDPR, che stabilisce per gli utenti il diritto di ottenere, da chiunque ne sia in possesso, una copia di tutti i propri dati personali, sul trattamento e sulle fonti da cui sono tratti. L’avvocata Maartje de Graaf sostiene che «l’obbligo di soddisfare le richieste di accesso si applica a tutte le aziende. È chiaramente possibile tenere un registro dei dati che sono stati utilizzati, almeno per avere un’idea delle fonti, ma sembra che a ogni innovazione che si presenta, ci siano aziende che si ritengono al di sopra della legge». Per la società il rischio per queste continue violazioni è di dover pagare una multa di 20 milioni di euro. Ma se queste fossero cifre già messe in conto per proseguire con l’evoluzione dell’IA? 

Le newsletter de Linkiesta

X

Un altro formidabile modo di approfondire l’attualità politica, economica, culturale italiana e internazionale.

Iscriviti alle newsletter