Rivoluzione generativaL’intelligenza artificiale è la grande innovazione di quest’epoca (malgrado i pericoli)

La diffusione immediata di ChatGPT dimostra quanto l’interazione tra persone e le nuove tecnologie sia sempre più naturale e intuitiva. Ma è un settore ancora giovane, con scarsa regolamentazione, che potrebbe concentrare un potere enorme nelle nelle mani di pochi

Pexels

Più di cento milioni di persone hanno “giocato” con ChatGPT di OpenAI. Si tratta di un prototipo di chatbot basato sull’intelligenza artificiale e su modalità di machine learning – ossia sulla capacità dei computer di imparare da soli – sviluppato da OpenAI e specializzato nella conversazione con un utente umano, in modo che l’interazione tra persone e sistemi di intelligenza artificiale sia sempre più naturale e intuitiva. Sbalorditivo: i cento milioni di user sono stati raggiunti in soli due mesi dal lancio. Per fare un paragone TikTok ha impiegato nove mesi, record che sembrava difficilmente uguagliabile.

Io stesso sono rimasto sorpreso sia per la velocità sia per la qualità delle risposte (senso logico, completezza e coerenza) ai quesiti più disparati seppur in forma sintetica. Un amico mi ha scritto: «Siamo entrati in un’altra era?».

Microsoft ha investito dieci miliardi di dollari nella fondazione OpenAI, creata nel 2015 da Elon Musk e da Sam Altman, che oggi continua a guidare l’azienda, puntando chiaramente a giocare un ruolo di grande player a livello globale. L’effetto a mio avviso più macroscopico è che milioni di persone, anche quelle più informate sugli avanzamenti dell’AI hanno preso concreta contezza della impressionante potenza che scaturisce dal suo uso e dal suo continuo sviluppo avvertendo, nel contempo, un salto tecnologico che induce anche a timori relativi a potenziali usi distorsivi (non a fin di bene).

La dimensione del mercato globale dell’intelligenza artificiale è stata stimata in 136,6 miliardi di dollari nel 2022 e dovrebbe raggiungere i 196,63 miliardi di dollari nel 2023, con un tasso di crescita annuale composto del 37,3 per cento dal 2023 al 2030, per raggiungere 1,81 trilioni di dollari entro il 2030.

Gli Stati Uniti sono il Paese che spende e investe di più in questo ambito: nel 2022 sono nati duecentonovantadue unicorni AI (le aziende unicorno sono imprese che superano il valore di un miliardo di euro) con un valore complessivo di 4,6 trilioni di dollari. Gli Stati Uniti spendono più della metà degli investimenti globali in intelligenza artificiale, ma lo sviluppo del settore vede presenti tutti colossi informatici o digitali, nessuno escluso. Non solo, anche le grandi multinazionali stanno direttamente investendo. Volkswagen, per esempio, ha messo 2,6 miliardi di dollari in una startup americana dedicata alla guida autonoma: Argo AI.

La Cina, come ovvio, non sta a guardare: sul piano delle pubblicazioni scientifiche il divario di ricerca sull’intelligenza artificiale Cina-Stati Uniti ha continuato ad allargarsi, con le istituzioni cinesi che producono 4,5 volte più documenti delle istituzioni americane dal 2010, e significativamente più di Stati Uniti, India, Regno Unito e Germania messi insieme.

Inoltre, la Cina è leader significativa in aree con implicazioni per la sicurezza, la sorveglianza e la geopolitica. Al di là dello spazio creativo, i modelli di intelligenza artificiale generativa hanno capacità trasformative in scienze complesse come l’ingegneria informatica, dove sono in grado di suggerire i codici di programmazione e addirittura completare in automatico fino al quaranta per cento il lavoro degli sviluppatori di software.

Grandi spazi di crescita e di utilizzo, come sottolinea il recente Report sull’AI di McKinsey pubblicato lo scorso dicembre, ma c’è un dato di fatto che genera una comprensibile preoccupazione. Gli investimenti (anche sbagliati) con centinaia di milioni di dollari sono alla portata delle poche aziende tecnologiche giganti (le famose Gama americane: Google, Amazon, Meta-Facebook, Apple) e le Batx cinesi (Baidu, Alibaba, Tencent e Xiaomi) alle quali vanno aggiunte un’altra decina di mega-aziende per Paese almeno.

Appare chiara quindi la preoccupazione per il fatto che il settore potrebbe finire per essere dominato da alcuni giganti della tecnologia in questi due Paesi. Wesley Chan (che in Google ha sviluppato Google Analytics e Google Voice) oggi venture capitalist da quattrocentocinquanta milioni di dollari, ha dichiarato lo scorso 6 febbraio ad Anne Sraders di Fortune che «il problema con l’intelligenza artificiale è che è assai probabile che le tre aziende più ben finanziate (con i maggiori capitali a disposizione) diventino il monopolio, il duopolio o l’oligopolio in questo business». D’altronde pensate che il supercomputer che viene usato per implementare OpenAI da parte di Microsoft è tra i dieci supercomputer più potenti al mondo.

Ingenti capitali a disposizione, risorse umane e talenti, acquisti delle migliori start-up, possibilità di sbagliare senza dover chiudere sono alcuni degli indispensabili “ingredienti” delle mega-aziende, le uniche in grado di portare avanti progetti di tale portata in ambito AI in senso compiuto (machine learning, deep learning, data analytics, calcolo computazionale, ecc.).

Un tema di concentrazione che non è più solo legato alla concorrenza (Antitrust) ma al pericolo di concentrare nelle mani di pochi un potere enorme in grado, se usato nella maniera sbagliata, di arrecare danni e di orientare comportamenti e giudizi. La deputata statunitense Anna Eshoo in una lettera inviata alla Casa Bianca lo scorso settembre ha evidenziato «gravi preoccupazioni per il recente rilascio non sicuro del modello text-to-image “Stable Diffusion” da parte della società Stability AI» compresa la generazione di immagini violente e pornografiche.

Poca o nessuna regolamentazione governa il panorama in rapida evoluzione dell’intelligenza artificiale in generale, salvo casi di autoregolazione definiti su base aziendale.

Ecco la risposta che la stessa ChatGPT ha elaborato in pochi secondi alla mia domanda: «Mi devo preoccupare per l’implementazione dell’IA?» Risposta: «Esistono numerosi rischi potenziali associati all’implementazione dell’IA, tra cui la possibilità che l’IA venga utilizzata per scopi dannosi, la possibilità che l’IA prenda decisioni distorte o non etiche e la possibilità che l’IA causi lo spostamento del lavoro. Inoltre, esiste la possibilità che l’IA venga utilizzata per manipolare o sfruttare le popolazioni vulnerabili e la possibilità che l’IA venga utilizzata per creare sistemi d’arma autonomi». Niente male.

Il corposo 2022 AI-Index-report pubblicato lo scorso maggio dalla Stanford University Institute for Human-Centered Artificial Intelligence (HAI) ben rappresenta come i governi stiano rispondendo (o meno) alla necessità di un quadro di regolazione etica: sono solo diciotto i progetti di legge relativi all’IA che nel 2021 sono stati convertiti in legge in Spagna, Regno Unito e Stati Uniti con tre adottati per ciascun Paese. Il record legislativo a livello federale rimane agli Stati Uniti che mostrano un forte aumento del numero totale di proposte di legge relative all’IA dal 2015 al 2021, mentre il numero di proposte di legge approvate rimane basso, con solo il due per cento che alla fine diventa norma.

Non mancano gli entusiasmi per il boom del settore: Jack Clark, responsabile del programma AI Index, insieme a Ray Perrault, ha tirato le sue conclusioni in merito al report e ha affermato che «il 2020 è stato un anno di svolta per l’intelligenza artificiale, passata dalla fase di tecnologica emergente a una fase di maturità. L’AI è uscita definitivamente da un settore legato esclusivamente alla ricerca scientifica, ma è diventata un fattore capace di avere un enorme impatto sul mondo reale».

Non a caso OpenAI è una fondazione senza scopo di lucro focalizzata sulla ricerca sull’intelligenza artificiale, un’organizzazione non vincolata al requisito primario del profitto e nata con l’obiettivo dichiarato di far sì che le macchine intelligenti siano un beneficio per l’umanità tutta. L’approccio “open” della nuova fondazione dovrebbe inibire (obiettivo da loro stessi dichiarato) il possibile sviluppo di un’intelligenza artificiale malvagia, spiegano i promotori, perché un maggior numero di intelligenze artificiali votate al bene del genere umano lavorerebbe per contrastare tale approccio negativo.

D’altronde il fondatore Elon Musk già nell’ottobre 2014 parlando al simposio centenario del dipartimento di Aeronautica e Astronautica del MIT, dichiarò: «Sono sempre più incline a pensare che ci dovrebbe essere una certa supervisione normativa, forse a livello nazionale e internazionale, solo per assicurarmi di non fare qualcosa di molto sciocco. Voglio dire, con l’intelligenza artificiale stiamo evocando il demone». Oggi cento milioni di persone hanno probabilmente meglio compreso quanto Musk volesse dire.