L’inverno tecnologicoPerché non ha senso mitizzare (o demonizzare) l’intelligenza artificiale

Come spiega Luciano Floridi in “Etica dell’intelligenza artificiale” (Raffaello Cortina Editore), dopo anni di esaltazione, stiamo per affrontare una stagione in cui si parlerà meno dell’IA. L’errore è pensare che sia o un miracolo o una piaga. Invece è solo una delle tante soluzioni escogitate dall’ingegno umano

Unsplash

Il problema con le metafore stagionali è che sono cicliche. Se diciamo che l’IA ha trascorso un brutto inverno, dobbiamo anche ricordarci che l’inverno farà ritorno, ed è meglio farsi trovare pronti. L’inverno dell’IA è quella fase in cui la tecnologia, gli affari e i media escono dalla loro calda e confortevole bolla, si raffreddano, temperano le loro speculazioni fantascientifiche e le loro esagerazioni irragionevoli, e fanno i conti con ciò che l’IA può o non può davvero fare come tecnologia in modo misurato. Gli investimenti diventano più attenti e i giornalisti smettono di scrivere di IA, per inseguire altri temi in voga e alimentare la moda seguente.

L’IA ha conosciuto diversi inverni. Tra i più rilevanti, ce n’è stato uno alla fine degli anni Settanta e un altro a cavallo degli anni Ottanta e Novanta. Oggi parliamo di un altro prevedibile inverno. L’IA è soggetta a questi cicli di esagerazioni perché è una speranza o una paura che abbiamo nutrito da quando siamo stati cacciati dal paradiso: qualcosa che fa tutto per noi, al nostro posto, meglio di noi, con tutti i vantaggi sognati (saremo in vacanza per sempre) e i rischi paventati (saremo ridotti in schiavitù) che ne derivano.

Per alcune persone, speculare su tutto questo è irresistibile. È il selvaggio West delle “ipotesi” e degli scenari del “come se”. Ma spero che il lettore mi perdonerà, se mi permetterò di dire: “Te l’avevo detto”. Da tempo ho messo in guardia contro commentatori ed “esperti” che facevano a gara per vedere chi la raccontava più grossa. Ne è seguita una pletora di miti. Parlavano dell’IA come se fosse l’ultima panacea, che avrebbe risolto e superato tutto; o come la catastrofe finale, una superintelligenza che avrebbe distrutto milioni di posti di lavoro, sostituendo avvocati e medici, giornalisti e ricercatori, camionisti e tassisti, e finendo per dominare gli esseri umani come se fossero animali domestici.

Molti hanno seguito Elon Musk nel dichiarare che lo sviluppo dell’IA rappresentava il più grande rischio esistenziale corso dall’umanità. Come se la maggior parte dell’umanità non vivesse nella miseria e nella sofferenza. Come se guerre, carestie, inquinamento, riscaldamento globale, ingiustizia sociale e fondamentalismo fossero fantascienza o solo seccature trascurabili, che non meritano considerazione.

Oggi, la pandemia da Covid-19 ha posto fine a queste sciocche affermazioni. Alcuni hanno insistito sul fatto che leggi e regolamenti giungerebbero sempre troppo tardi senza tenere mai il passo dell’IA, quando in realtà le norme non riguardano il ritmo ma la direzione dell’innovazione, poiché dovrebbero guidare il corretto sviluppo di una società. Se ci piace dove stiamo andando, possiamo andarci alla velocità che vogliamo. È a causa della nostra mancanza di visione che abbiamo paura.

Oggi sappiamo che una normativa è in corso di elaborazione, almeno nell’Unione Europea. Altri (non necessariamente diversi dai precedenti) hanno affermato che l’IA fosse una scatola nera magica che non potremmo mai spiegare, quando in realtà si tratta di individuare il corretto livello di astrazione al quale interpretare le complesse interazioni ingegnerizzate: anche il traffico automobilistico nel centro di una città diventa una scatola nera se pretendiamo di scoprire perché ogni singolo individuo si trovi lì in quel momento.

C’è un crescente sviluppo di strumenti adeguati per monitorare e capire come i sistemi di apprendimento automatico raggiungono i loro risultati. Inoltre, tali persone diffondono scetticismo sulla possibilità di delineare un quadro etico che sintetizzi ciò che intendiamo per IA socialmente buona, laddove in realtà la Ue, l’Ocse e la Cina convergono su principi molto simili, che offrono una piattaforma comune per ulteriori accordi […].

Si tratta di irresponsabili in cerca di titoli. Dovrebbero vergognarsi e chiedere scusa. Non solo per i loro commenti insostenibili, ma anche per la grande trascuratezza e l’allarmismo, che hanno tratto in inganno l’opinione pubblica sia su una tecnologia potenzialmente utile – che può fornire e difatti fornisce soluzioni utili, dalla medicina ai sistemi di sicurezza e monitoraggio – sia sui rischi reali, che sappiamo essere concreti ma molto meno fantasiosi, dalla manipolazione quotidiana delle scelte all’aumento della pressione sulla privacy individuale e di gruppo, dai conflitti informatici all’uso dell’IA da parte della criminalità organizzata per riciclaggio di denaro e furto di identità […].

Il rischio insito in ogni estate dell’IA è che le aspettative esagerate si trasformino in una distrazione di massa. Il rischio insito in ogni inverno dell’IA è che il contraccolpo sia eccessivo, la delusione troppo profonda, cosicché soluzioni potenzialmente preziose vengono buttate via con l’acqua delle illusioni. Gestire il mondo è un compito sempre più complesso: le megalopoli e la loro “trasformazione in città smart” ne sono un buon esempio.

Inoltre, siamo posti a confronto con problemi planetari – pandemie, cambiamenti climatici, ingiustizie sociali, migrazioni – che richiedono livelli di coordinamento sempre più elevati per essere risolti. Abbiamo bisogno naturalmente di tutta la buona tecnologia che possiamo disegnare, sviluppare e implementare per affrontare queste sfide, e di tutta l’intelligenza umana che possiamo esercitare per mettere tale tecnologia al servizio di un futuro migliore.

L’IA può svolgere un ruolo importante in tutto questo perché abbiamo bisogno di modalità sempre più intelligenti per elaborare immense quantità di dati, in maniera efficiente, efficace, sostenibile ed equa. Ma l’IA deve essere trattata come una normale tecnologia, non come un miracolo né come una piaga, bensì come una delle tante soluzioni che l’ingegno umano è riuscito a escogitare. Questa è anche la ragione per cui il dibattito etico resta sempre una questione interamente umana.

Ora che il nuovo inverno potrebbe arrivare, possiamo provare a imparare alcune lezioni ed evitare di allignare in questo andirivieni di illusioni irragionevoli e disillusioni esagerate. Non dimentichiamo che l’inverno dell’IA non dovrebbe essere l’inverno delle sue opportunità. Certamente non sarà l’inverno dei suoi rischi o delle sue sfide. Dobbiamo chiederci se le soluzioni di IA rimpiazzeranno davvero le soluzioni precedenti, come ha fatto l’automobile con la carrozza, le diversificheranno, come ha fatto la moto con la bicicletta, o le integreranno ed espanderanno, come ha fatto lo smartwatch digitale con l’orologio analogico.

Quale sarà il livello di sostenibilità, accettabilità sociale o preferibilità di ogni IA che emergerà in futuro, forse dopo un nuovo inverno? Indosseremo davvero degli strani occhiali per vivere in un mondo virtuale o aumentato creato e abitato da sistemi di IA? Oggi molte persone sono restie a indossare occhiali anche quando ne hanno davvero bisogno, solo per motivi estetici. E poi ci sono soluzioni IA fattibili nella vita di tutti i giorni? Sono disponibili le competenze, gli insiemi di dati, l’infrastruttura e i modelli di business necessari per garantire il successo dell’implementazione dell’IA?

I futurologi trovano queste domande noiose. A loro piace un’idea unica, semplice, che interpreta e cambia tutto, che può essere dispiegata con leggerezza in un libro facile che fa sentire il lettore intelligente, un libro che deve essere letto da tutti oggi e ignorato da tutti domani. È la cattiva alimentazione del cibo spazzatura per i pensieri e la maledizione del bestseller da aeroporto. Dobbiamo resistere all’eccesso di semplificazione. Questa volta, dobbiamo pensare in modo più approfondito ed esteso a ciò che stiamo facendo e pianificando con l’IA. Questo esercizio si chiama filosofia, non futurologia. 

Raffaello Cortina Editore

Da “Etica dell’intelligenza artificiale”, di Luciano Floridi, Raffaello Cortina Editore, 384 pagine, 24,70 euro