Liz Alderman (LA) L’Intelligenza Artificiale è ovviamente molto promettente e può fare ogni genere di cose nuove. Può persino aiutarci a risolvere alcuni dei nostri problemi più difficili. Ma comporta anche dei rischi, tra cui la manipolazione, la disinformazione e la possibilità che venga usata da dei malintenzionati, cosa, quest’ultima, che rappresenta una minaccia esistenziale. Quindi, Nick, perché l’opinione pubblica dovrebbe avere fiducia nel fatto che l’IA sarà una manna e non un pericolo per la democrazia?
Nick Clegg (NC) Credo che l’opinione pubblica debba sospendere il giudizio fino a quando non vedremo come si svilupperà la situazione. E penso che, come ogni grande innovazione tecnologica, anche l’IA possa essere usata sia per scopi buoni sia per scopi cattivi e possa essere usata sia da persone buone sia da persone cattive. È stato sempre così per tutte le innovazioni, dall’invenzione dell’automobile a quella di Internet e dalla radio alla bicicletta. Penso anche che sia naturale temere il peggio e che si cerchi quindi di giocare d’anticipo per evitarlo. E che sia naturale che questo avvenga soprattutto con le tecnologie difficili da comprendere. Non mi sorprende quindi che negli ultimi mesi, e soprattutto dopo che ChatGPT ha prodotto il suo modello linguistico di grandi dimensioni, l’attenzione si sia concentrata soprattutto sui possibili rischi. A essere sincero, penso che, per quanto riguarda alcuni dei rischi che vengono paventati e soprattutto il modo in cui tali rischi vengono descritti, venga sopravvalutato l’attuale stadio di sviluppo tecnologico. Come sapete, è già stata oggetto di molte discussioni l’idea che l’IA possa sviluppare una sorta di autonomia e una capacità di agire in proprio e che abbia una specie di desiderio demoniaco di distruggere l’umanità e di trasformarci tutti in graffette e così via.
LA Non abbiamo ancora raggiunto un livello da Terminator 2.
NC Sì, esatto. Perché dovete tenere ben presente che si tratta di sistemi che non sanno nulla. Non hanno alcuna significativa capacità di agire né alcuna vera autonomia. Si tratta di strumenti estremamente potenti e sofisticati attraverso cui macinare grandi quantità di informazioni a cui applicare miliardi di parametri per individuare dei pattern all’interno di una vertiginosa varietà di data sets e data points. L’Intelligenza Artificiale tradizionale è generativa. Può prevedere quale possa essere la parola successiva. Ma non sa quali siano i significati intrinseci di quelle parole. Perciò credo che si debbano riconsiderare alcune delle paure più ansiogene. Tuttavia, penso che sia probabilmente giusto supporre che, come molte altre tecnologie, anche questa agirà come un acceleratore di tendenze già esistenti. Ma, se si considerano i progressi compiuti negli ultimi anni sulle piattaforme dei social media proprio grazie all’IA, mi sembra che si possano cogliere dei segnali abbastanza incoraggianti.
Un buon esempio è rappresentato dall’hate speech Su Facebook la presenza dell’incitamento all’odio, secondo i nostri dati verificati, si attesta oggi tra lo 0,01 e lo 0,02 per cento. Quindi, attenendosi a questi numeri, per ogni diecimila contenuti che si incontrano su Facebook, se ne possono trovare uno o due classificabili come hate speech. Vorrei che questo numero fosse zero. Ma non credo che si arriverà mai a zero. E la cosa più rilevante è che la presenza di questi contenuti è diminuita di circa il cinquanta o il sessanta per cento grazie ai progressi dell’Intelligenza Artificiale. Se si riescono ad addestrare i classificatori dell’IA a riconoscere un pattern, ed è possibile farlo, ad esempio, per quello che concerne l’hate speech, allora essa può diventare uno strumento incredibilmente efficace per agire nel campo avversario. Perché se le nostre politiche, i nostri sistemi e la nostra tecnologia funzionano come dovrebbero, in un certo senso potremmo mantenere un atteggiamento agnostico sul fatto che queste cose siano prodotte da una macchina oppure da un essere umano.
LA Mark Zuckerberg ha dichiarato che rilascerà il codice dell’Intelligenza Artificiale di Meta, perché questo è nell’interesse del bene comune. Altre persone, da qualsiasi parte del mondo, potrebbero di fatto entrare in questo sistema e migliorarlo. Tuttavia, ci sono molte resistenze al riguardo.
NC Se si osserva la storia di Internet, si vede come esso sia stato costruito attraverso una tecnologia open-source. Spesso la tecnologia open-source è stata più innovativa. E l’esperienza suggerisce che sia anche più sicura, perché vi si applica la saggezza di un ampio gruppo di persone. Ma, naturalmente, ci sono delle circostanze in cui non si dovrebbe utilizzare l’open-source. Da poco i nostri ricercatori hanno messo a punto un nuovo strumento straordinariamente potente che è in grado di prendere un piccolo frammento della voce di qualcuno e di espanderlo per imitare perfettamente quella voce. È chiaro che non voglio che in questo caso si applichi un approccio open-source. Ma penso che in genere, quando è possibile farlo, sia meglio ricorrere all’open-source, perché così si democratizza l’accesso alla tecnologia e si evita che siano solo una manciata di grandi aziende americane e cinesi ad avere la capacità di gestire le GPU e i dati per far funzionare questi sistemi. Ma, come ho già detto, se mai ci dovessimo avvicinare, a livello mondiale, alla visione distopica della cosiddetta “intelligenza artificiale generale”, e cioè a un punto in cui questi modelli sviluppino un’autonomia e una capacità di agire in proprio, allora ovviamente la questione sarebbe completamente diversa. E credo che in quel caso il dibattito prenderebbe decisamente un’altra piega.
LA Ho chiesto a ChatGPT di formulare un paio di domande per Nick Clegg sui pericoli che la democrazia potrebbe correre a causa dell’IA. Te ne proporrò una: «L’anno prossimo andranno al voto nel mondo due miliardi di persone. Sappiamo che l’Intelligenza Artificiale», ed è proprio l’Intelligenza Artificiale a dire questa cosa!, «è sempre più utilizzata per manipolare gli elettori con dei contenuti personalizzati. Le aziende tecnologiche sono in grado di arginare questo fenomeno?».
NC Beh, penso che valga la pena di pensare a questo aspetto in modo concettuale, dal momento che c’è prima una generazione di questi contenuti e poi una loro circolazione. E credo che si debba innanzitutto capire se sia possibile avere degli standard a livello industriale per poter identificare, sia attraverso dei watermark espliciti sia attraverso dei watermark invisibili, ciò che è stato generato dall’IA. In realtà, se si riuscisse a stabilire degli standard di questo tipo condivisi dalle diverse piattaforme, non sarebbe poi così difficile limitare la distribuzione di quei contenuti che non si vuole che abbiano un’ampia circolazione. Credo che il problema, al momento, sia che tutti propongono degli standard diversi per il watermark o per il non-watermark.
Mi preoccupa il fatto che stiamo investendo molto tempo e molte energie per fare congetture su delle eventuali minacce esistenziali che forse potrebbero derivare in futuro dall’IA quando invece, dal momento che due miliardi di persone nel mondo sono in procinto di esprimere il proprio voto nelle elezioni dei loro rispettivi Paesi, quello di cui avremmo bisogno, e ne avremmo bisogno subito, è uno standard condiviso di watermarking. Così potremmo fare tutto il possibile per apporre esplicitamente delle filigrane digitali su tutto quello che proviene dagli strumenti per produrre immagini generative attraverso l’IA. Noi lo stiamo facendo. Ma se non lo faranno anche gli altri, questo finirà per confondere completamente gli utenti e neppure noi saremo in grado di controllare i contenuti che giungono sulla nostra piattaforma da altre piattaforme.
LA Lei parla di regolamentazione. Ma perché l’opinione pubblica dovrebbe avere fiducia nel fatto che l’industria tecnologica possa fare un buon lavoro di regolamentazione o possa attenersi a una qualsiasi linea guida, quando le aziende di quel settore, per quanto riguarda il passato, non possono certo esibire chissà che buon curriculum?
NC L’industria tecnologica non sta dicendo questo. L’industria tecnologica sta dicendo che c’è bisogno di una regolamentazione, ma che la regolamentazione è lenta. Quindi, nel frattempo, stiamo elaborando una serie di… Insomma: che cosa pensate, che non arriveremo ad assumerci degli impegni su base volontaria? Al momento, in assenza di una legislazione al riguardo, questa è l’unica cosa che possiamo fare. Credo che tutti gli operatori del settore riconoscano che almeno per alcuni di questi aspetti sia veramente necessario un quadro legislativo che ponga dei limiti severi. Ma, per avviare il processo, l’industria sta dicendo: «Sentite, avete bisogno di standard uniformi sulla trasparenza». È assolutamente necessaria una cooperazione tra tutti gli operatori del settore per quanto riguarda il watermarking e la “provenienza e rilevabilità” dei contenuti. Intanto, in assenza di una legge e mentre i legislatori decidono che leggi vogliono confezionare, il settore si sta muovendo da solo.
C’è sempre una sfasatura tra la velocità in cui si sviluppa la tecnologia e quella con cui vengono introdotte delle leggi adatte al nuovo contesto. E la seconda è sempre inferiore alla prima. La mia preoccupazione è che ora il lavoro per creare una legislazione adeguata si intrecci a un dibattito che io ritengo sia un po’ paralizzante, del tipo «Oh mio Dio, la fine è vicina?». E credo che si tratti di una combinazione poco efficace.
Liz Alderman è la capo corrispondente European business del New York Times.
Nick Clegg è stato il leader dei Liberal Democratici inglesi e ha ricoperto la carica di vicepremier del Regno Unito. Ora è il presidente per gli affari globali di Meta.
© 2023 THE NEW YORK TIMES COMPANY