È la pietra angolare di un nuovo ordine globale sull’intelligenza artificiale. La “Dichiarazione di Bletchley Park” è l’accordo mondiale per regolare il vertiginoso sviluppo della IA: un documento intergovernativo firmato dai delegati di ventotto Paesi – tra cui Stati Uniti, Cina e i governi dell’Unione europea – hanno concordato di lavorare insieme per contenere i rischi potenzialmente catastrofici posti dai progressi sempre più rapidi dell’intelligenza artificiale.
Lo sviluppo sicuro di questa tecnologia è il cuore delle discussioni al summit inglese di Bletchley Park, a nord di Londra. «Questa storica dichiarazione segna l’inizio di un nuovo sforzo globale per costruire la fiducia del pubblico nell’intelligenza artificiale garantendo che sia sicura», ha detto il premier britannico Rishi Sunak, che fa gli onori di casa nella due giorni che si concluderà oggi.
La scelta della location non è casuale. Bletchley è luogo evocativo, rimanda a un periodo storico in cui il Regno Unito aveva bisogno di una leadership ispirata da parte del suo governo, ma era anche un momento in cui la tecnologia informatica era al centro dell’attenzione: in quelle stesse stanze ottantatré anni fa – in piena Seconda Guerra Mondiale – Alan Turing decifrava il codice “Enigma” dei nazisti.
Tra i ventotto firmatari ci sono anche Arabia Saudita, Turchia e Cina. In una storica intesa intercontinentale per «unire forze e progetti in futuro per fronteggiare i rischi potenzialmente catastrofici», come si legge nel documento. I rischi, come scrivono Antonello Guerrera e Emanuele Lauria su Repubblica, «sarebbero quelli posti ad esempio dalla “Frontier AI”, quella più avanzata, come ChatGpt, che rischia di sfuggire al controllo umano o finire nelle mani di terroristi, cyber-criminali e disinformazione anti-democratica».
Alla conferenza hanno partecipato anche dirigenti di aziende leader nel settore della tecnologia e dell’intelligenza artificiale, tra cui Anthropic, Google DeepMind, Ibm, Meta, Microsoft, Nvidia, OpenAI e Tencent. E ovviamente Elon Musk, di X (cioè il vecchio Twitter).
Oltre a Sunak, oggi interverranno anche la presidente della Commissione europea Ursula von der Leyen e la premier italiana Giorgia Meloni, unica leader dei grandi Paesi a essere venuta qui – per gli Stati Uniti, ad esempio, ha partecipato la vicepresidente Kamala Harris.
Proprio Harris, in un discorso all’ambasciata statunitense, ha detto che il mondo deve iniziare ad agire ora per affrontare «l’intero spettro dei rischi legati all’IA, non solo le minacce esistenziali come i massicci attacchi informatici o le armi biologiche formulate dall’intelligenza artificiale».
Il New York Times, in un articolo cofirmato da Adam Satariano e Megan Specia, insistono sui rischi nascosti dello sviluppo tecnologico dell’intelligenza artificiale: «Le future generazioni di sistemi di intelligenza artificiale potrebbero accelerare la diagnosi delle malattie, contribuire a combattere l’emergenza climatica e semplificare i processi produttivi, ma presenteranno anche pericoli significativi in termini di perdita di posti di lavoro, disinformazione e sicurezza nazionale. Un rapporto del governo britannico della scorsa settimana ha avvertito che i sistemi avanzati di intelligenza artificiale “potrebbero aiutare i malintenzionati a eseguire attacchi informatici, condurre campagne di disinformazione e progettare armi biologiche o chimiche”».
I dubbi maggiori riguardano la capacità degli Stati di dar seguito a questo approccio collaborativo, renderlo davvero efficace e operativo, non solo di facciata. Alcuni analisti ritengono che la conferenza possa essere più simbolica che sostanziale dal momento che molti governi stanno andando avanti con proprie leggi e regolamenti. Ad esempio questa settimana il presidente americano Joe Biden ha annunciato un ordine esecutivo che impone alle aziende che operano nel campo dell’intelligenza artificiale di valutare i rischi per la sicurezza nazionale prima di rilasciare la loro tecnologia al pubblico. La legge sull’intelligenza artificiale dell’Unione europea, invece, potrebbe essere finalizzata entro poche settimane. La Cina, a modo suo, sta tentando di controllare il modo in cui viene utilizzata l’intelligenza artificiale all’interno della sua rete tecnologica.