ChatGpt ha sorpreso il mondo. Essa incorpora più conoscenza di quanto qualsiasi macchina abbia mai avuto. Può parlare in modo convincente dell’estrazione mineraria in Nuova Guinea o di Tscm, un’azienda taiwanese di semiconduttori che si trova nel mirino di una controversia geopolitica.
Gpt-4, la rete neurale artificiale che alimenta ChatGpt, ha superato gli esami per l’accesso a una carriera legale
o medica in America. Può generare canzoni, poesie e saggi. Altri modelli di intelligenza artificiale generativa possono generare foto digitali, disegni e animazioni. Non è «intelligente» ma utilizza un’enorme quantità di dati, si avvale di algoritmi che li elaborano, dispone di modelli per concludere i suoi processi e soprattutto interagisce verbalmente con gli esseri umani.
Mette paura e al tempo stesso genera aspettative di profondi cambiamenti nell’economia e nella vita. L’AI promette effetti mirabolanti in termini di aumento della produttività e minaccia drammatici cambiamenti nello stile di vita.
Sui tempi dei potenziali impatti della AI, il premio Nobel Paul Krugman avanza però dubbi fondati sulla storia delle rivoluzioni tecnologiche, che hanno avuto tempi non corrispondenti ai loro teorici effetti prestazionali e benefici economici.
La storia suggerisce che l’intelligenza artificiale, come altre rivoluzioni tecnologiche, potrebbe avere enormi impatti economici ma essi non arriveranno rapidamente. ChatGpt e tutto ciò che segue impatteranno sulla storia economica forse per il decennio del 2030, non per i prossimi anni. Il Large Language Model (Llm) nella sua forma attuale non dovrebbe incidere sull’economia per il prossimo anno e probabilmente non dovrebbe avere un grande effetto sull’economia per il prossimo decennio.
L’esame dei risultati fin qui raggiunti dalle imprese confermano la cautela di Krugman. In una ricerca realizzata per «Mit Sloan Management Review» e Boston Consulting Group da Thomas Davenport e Nitin Mittal, è emerso che sette aziende su dieci hanno riferito che le loro iniziative di AI avevano avuto un impatto minimo o addirittura nullo. All’interno di imprese che avevano investito in AI meno del quaranta per cento non si erano registrati miglioramenti nel conto economico nei precedenti tre anni.
Davenport e Mittal indicano le cose non finanziarie ma organizzative che bisogna fare per valorizzare gli investimenti, fra cui sapere cosa si vuole realizzare, padroneggiare l’analitica dei dati, creare un’architettura informatica modulare e flessibile, creare una struttura di governance dell’AI, creare centri di eccellenza di competenza e altre.
L’investimento privato globale nell’AI è stato nel 2022 di 91,9 miliardi di dollari, diciotto volte l’ammontare degli investimenti nel 2013. Il numero delle aziende che hanno adottato l’AI è raddoppiata rispetto al 2017, puntando a significative riduzioni di costo e aumento di ricavi. Oggi oltre trentadue aziende producono intelligenza artificiale generativa.
A fine 2022 i paper scientifici sull’intelligenza artificiale hanno superato le cinquecento mila unità in un anno. Gran parte di questa straordinaria esplosione si deve soprattutto al debutto della citata ChatGpt, un modello di intelligenza artificiale generativa basata sul Llm che ha prodotto in milioni di utenti la sorpresa di un’interazione con un sistema che capisce le nostre domande e che è in grado di dialogare direttamente con l’operatore non specialista e consigliarlo.
Tra i sistemi di intelligenza artificiale generativa oggi il più noto è ChatGpt prodotto da OpenAI. Altri sistemi sono Bard di Google, Bedrock di Amazon, Ernie Bit di Baidu, Pangu-Σ di Huawei, Claude di Anthropic, Poe di Quora. Dolly 2.0 è il primo Llm interamente open source creato da Databricks. Esistono, inoltre, sistemi capaci di generare immagini 3D come Stable Diffusion, Midjourney e Dall-E.
Dietro il carattere sorprendente delle prestazioni dell’intelligenza artificiale generativa vi sono due imponenti fenomeni economici e sociali: il decollo della gara fra i player privati e l’allargamento della platea consumatori.
Il primo fenomeno riguarda i player in campo. OpenAI era inizialmente una azienda no profit ma poi ha raccolto investimenti ingenti da Microsoft e altre ed è diventata una azienda profit. A sviluppare Llm si sono precipitati in poco tempo i giganti della tecnologia come Google, Amazon, Meta.
In una parola l’AI è una tecnologia di una potenza senza precedenti che potrebbe essere dominata da uno dei player abituati al winner-takes-all e a rispondere solo a consueti criteri aziendalistici o di potere.
I governi di Stati Uniti, Cina e Unione europea, come vedremo, si avviano a regolare questi sviluppi travolgenti, ma con molte esitazioni.
Il secondo fenomeno è che le applicazioni AI hanno suscitato enorme attenzione non solo da parte delle aziende utenti ma anche da parte dei consumatori individuali: ChatGpt aveva superato i cento milioni di utenti nei primi due mesi.
Per esaminare le implicazioni sul lavoro e sull’organizzazione non possiamo quindi non tener conto preliminarmente che l’intelligenza artificiale è un big business con un mercato sia business che consumer: le proposte progettuali non possono non tener conto dei giganteschi interessi in gioco, che quindi potrebbero ostacolare ciò che è giusto e possibile.
Sul nostro tema l’AI consente due strategie alternative: ottenere aumenti di produttività eliminando posti di lavoro e delegando gran parte dei processi operativi e decisionali all’AI, ossia uno scenario di intensificazione del capitalismo finanziario; oppure avvalersi delle straordinarie capacità dell’AI per «allargare la torta dei
prodotti e servizi offerti» e contemporaneamente per aumentare le capacità innovative e creative delle persone impegnate in lavori e in organizzazioni di qualità profondamente trasformati anche in virtù di una AI abilitatrice: ossia uno scenario di rigenerazione del capitalismo industriale socialmente responsabile.
Questo bivio è stato limpidamente concettualizzato da due scienziati del Mit, Daren Acemoglu e Pascual Restrepo, che distinguono tra «tipo giusto e tipo sbagliato di AI».
Acemoglu e Restrepo mettono in guardia contro la «wrong AI»: quando l’AI sostituisce i lavoratori senza creare crescita dei fatturati e nuovi lavori, alla fine saranno i lavoratori e la società a perdere. Più che «intelligenza delle macchine» (a cui stanno oggi puntando giganti come Microsoft e Alphabet), noi abbiamo bisogno di «utilità» delle macchine che che esprima l’abilità delle macchine di aumentare le capacità umane.
Ma perché venga adottata la prima strategia questi sviluppi vanno progettati e realizzati con piani e azioni attuative, orientate a questo scopo.
Lo sviluppo dell’AI può avvenire in un contesto autoritario dominato dai big player oppure entro un’arena sociale e politica democratica complessa: i policy maker devono operare una scelta.
Sviluppare tipologie giuste di ai non è una scelta ideologica ma scelta operosa di mettere in campo sia politiche regolatorie e industriali sia percorsi di progettazione nelle singole imprese e amministrazioni che riguardino i tipi di AI da applicare, i business model, l’organizzazione, il lavoro, la gestione delle risorse umane.
Richiede anche il favorire lo sviluppo di contropoteri, come quelli che mitigarono il potere delle grandi società industriali durante il Novecento.
Se questo ora appare difficile per l’assenza di larghe concentrazioni di lavoratori è tuttavia possibile attivare processi per progettare e sviluppare insieme tecnologia, organizzazione, lavoro con azioni localizzate nelle singole organizzazioni e con politiche pubbliche: questo può suscitare consapevolezza e partecipazione di un numero crescente di persone.