Questa intervista è stata realizzata interamente da ChatGPT. O forse no. Non possiamo davvero stabilire la veridicità di questa frase a causa del miglioramento costante dell’intelligenza artificiale che ci ha costretto a masticare questo nuovo acronimo: Gpt, che sta per Generative Pre-trained Transformer, ovvero «trasformatore generativo pre-addestrato». Alcuni usano ChatGPT come sostituto di Google, altri la (lo? Impareremo anche l’articolo determinativo giusto) sperimentano per capire quanto possa aiutare il lavoro quotidiano, altri ancora non l’hanno mai usata, aspettando di capire se saranno costretti un giorno a farlo.
Come tutte le rivoluzioni tecnologiche, anche quella dell’intelligenza artificiale ha creato due scuole di pensiero sul suo impatto nel futuro: i catastrofisti e gli scettici. In mezzo si posiziona Stefano da Empoli, docente di Economia politica presso l’Università Roma Tre e presidente dell’Istituto per la Competitività (I-Com), think tank leader in Italia e in Europa sui temi del digitale e dell’innovazione. Per Egea ha scritto il saggio “L’economia di ChatGPT – Tra false paure e veri rischi” in cui spiega che questa tecnologia ha grandi potenzialità ma è fallibile e avrà sempre bisogno di persone per essere valorizzata. E scrive: «Immaginavamo il dialogo con le macchine come qualcosa di riservato a una classe di iniziati. L’informatico in questo senso era come il sacerdote nella Chiesa cattolica. ChatGPT ha rappresentato per l’IA la sua riforma protestante».
La riforma protestante però ha portato anche a interpretazioni individuali piuttosto stravaganti del Vangelo, causando l’esplosione di un’infinità di sette e confessioni. Con l’avvento di ChatGPT dobbiamo temere nuovi fondamentalismi digitali?
Non ha senso né sopravvalutare l’impatto di questa tecnologia che rimane in molti aspetti ancora fallibile, così come sono fallibili gli esseri umani, né una sua deificazione, a mio avviso del tutto impropria che viene fatta in due sensi: negativo e positivo. Sbaglia chi ritiene che l’intelligenza artificiale generativa renda gli esseri umani accessori, così come sbaglia chi, come Yuval Harari, scrive che l’IA ha hackerato il sistema operativo del mondo. Francamente è un’esagerazione. La realtà dell’IA non è bianca o nera, ma una scala di grigi che ho cercato di raccontare in questo saggio.
Restiamo nel grigio: qual è l’errore da non compiere parlando di ChatGPT?
La prima regola è non banalizzare la sua accessibilità. A seconda di ciò che chiedi, hai una probabilità maggiore o minore di ottenere una risposta “allucinata” cioè una realtà assolutamente inventata oppure semplicemente banale, ma se sai fare le domande giuste puoi ottenere una risposta di una sofisticazione eccezionale, resa in pochi secondi o al massimo qualche minuto. Non dobbiamo compiere l’errore di pensare che siccome è facile ottenere una risposta sapremo lavorare facilmente con questi strumenti.
Sarà cosi difficile vedere la diffusione di ChatGPT in Italia?
Non è scontato, soprattutto in una realtà come quella italiana tradizionalmente refrattaria alle nuove tecnologie. Non stiamo parlando degli smartphone che più o meno tutti hanno imparato velocemente a usare, dai bambini agli anziani, ma di uno strumento che può aiutare le aziende italiane a essere davvero produttive. Il modo migliore per ottenere più risultati usando le stesse risorse è capire che ChatGPT, o l’intelligenza artificiale generativa in generale, non risolverà da solo le nostre mansioni, ma funzionerà bene se concepito come un assistente. L’assistente non sostituisce, ma coadiuva. Per farlo però ha bisogno di ricevere le domande giuste e nella modalità più appropriata, circoscrivendo il campo delle risposte. Altrimenti i consigli saranno banali, o ancor peggio fuorvianti.
Per anni però abbiamo detto ai giovani di imparare a fare coding, perché quella sarebbe stata l’abilità richiesta nel futuro.
Fino a pochi anni fa ritenevamo tutti che fosse cruciale diffondere il coding per farla diventare una abilità di massa, insegnandolo fin dai primi passi del percorso scolastico. Ma le rivoluzioni sono tali perché cambiano i paradigmi. Questi strumenti di intelligenza artificiale nella loro disintermediazione informativa ci pongono di fronte a nuove possibilità, ma anche a nuove sfide. Dopo l’avvento dell’IA generativa sappiamo che è molto più importante il cosiddetto prompt engineering che il coding. Se chiediamo a un chatbot la stessa cosa più volte otteniamo con ogni probabilità reazioni diverse. Nella sfida competitiva vincerà chi saprà ottenere le risposte più efficaci e soprattutto verificarle.
Facciamo qualche esempio.
Al momento sconsiglierei di chiedere una ricerca bibliografica per scrivere un libro, perché è alto il rischio di imbattersi in informazioni fuorvianti. Ma invece le chatbot sono utili per acquisire conoscenze su un determinato personaggio storico o di attualità, oppure per elaborare da zero un piano di marketing per una azienda o il processo di text to image, l’estrazione dei testi dalle immagini. L’importante è non fermarsi alla domanda giusta ma verificare le domande con una serie di contro-domande. Diversi studi dimostrano come la catena di domande migliori in maniera molto significativa i risultati di strumenti come ChatGPT.
Su circa 4,4 milioni di imprese attive in Italia, il novantacinque per cento ha meno di dieci dipendenti. Come si incentiva un sistema micro-produttivo simile all’uso dell’IA generativa?
Nell’ultima parte del saggio ho suggerito alcune strategie possibili. In questi anni tra ammortamenti e crediti fiscali le imprese italiane hanno potuto acquistare facilmente nuovi strumenti tecnologici, ma è fondamentale il tema dell’orientamento. Ovvero aiutare l’impresa a valutare lo stato della propria capacità tecnologica per capire quali strumenti adottare per migliorare la propria produttività. Bisogna evitare investimenti sbagliati: è inutile per una azienda sia non acquistare strumenti di IA generativa, ma allo stesso modo anche spendere troppo per strumenti inutili per la sua attività.
Quali sono i veri rischi dell’IA generativa?
Lasciando da parte il tema della privacy, perché a mio avviso abbiamo gli strumenti per difenderci, penso che siano tre i rischi principali. Il tema dei deep fake e in generale della disinformazione (sia per scopi politici ma anche finanziari), la cybersecurity e la tutela del copyright. Quest’ultima è una questione potenzialmente disruptive per il mercato perché si rischia di generare delle incertezze e cause legali infinite che aumenteranno i costi, invece di diminuirli.
Le aziende italiane sembrano ancora indietro in questo fenomeno, ma forse pagano anche un mancato coordinamento a livello europeo.
La strategia originaria della Commissione del 2018 prevedeva di regolamentare gli usi dell’IA, ma anche di aumentare gli investimenti per permettere all’Europa di non rimanere indietro. Un piano condivisibile, ma alla prova dei fatti il gap, in particolare rispetto agli Stati Uniti, non si è ridotto. Certo, ci sono tante imprese che investono sull’IA e il prossimo “unicorno” potrebbe essere la francese Mistral, ma quello spirito del 2018 si è perso perché il budget per implementare quel piano era in gran parte a carico degli Stati membri. Ogni paese ha deciso di adottare una strategia nazionale con tempi e investimenti diversi. Anche l’Italia è arrivata a stilare un piano solo a novembre del 2021 e per giunta triennale, senza una visione nel lungo periodo e investimenti adeguati. Non sarà facile colmare quel gap, e non abbiamo la forza delle Big Yech. Ma il mercato è ampio e ci possono essere diversi livelli di investimento possibili. Trainati auspicabilmente da un approccio coordinato a livello Ue.