Fuori programmaL’esperimento fallito di Radio Kraków mostra i limiti dell’IA nel giornalismo

L’emittente polacca che ha provato a far gestire il canale interamente dall’intelligenza artificiale ha trasmetto un’intervista inventata alla poetessa Wisława Szymborska, deceduta nel 2012, e programmato un incontro con Józef Piłsudski, il dittatore polacco morto nel 1935

Unsplash

Lo scorso mese una radio pubblica polacca, Radio Kraków, ha interrotto una sperimentazione iniziata da meno di una settimana: un canale completamente gestito dall’intelligenza artificiale (IA). L’esperimento era stato annunciato come «la prima stazione radio creata quasi interamente dall’IA» ed era stato deliberatamente concepito per attrarre utenti della Generazione Z (i nati tra 1997 e 2012). 

Nell’idea dei suoi iniziatori, il progetto avrebbe dovuto durare tre mesi. È stato deciso, tuttavia, di sospenderlo dopo che gli speaker del canale (anche loro tre avatar creati dall’IA) hanno trasmesso un’intervista con la poetessa Wisława Szymborska, vincitrice del Premio Nobel per la Letteratura nel 1996 e scomparsa nel 2012. La trasmissione aveva anche in calendario un’intervista con Józef Piłsudski, autocrate ed eroe nazionale che governò la Polonia per gran parte del periodo interbellico, per il giorno dell’Indipendenza della Polonia (11 novembre).

L’intervista inventata a personaggi famosi del passato sembra aver suscitato parecchie controversie e fatto emergere varie polemiche legate al lancio del progetto. Alcuni ex impiegati di Radio Kraków hanno detto ai media di esser stati licenziati per far risparmiare all’editore le risorse da dirottare sul lancio di questo nuovo canale automatizzato. Un deputato della coalizione di Rafał Komarewicz (partito: Polonia 2050) ha sostenuto che il caso dimostri «quanto siano numerosi gli ambiti legati all’impatto dell’IA sulla sfera mediatica che richiedono un intervento normativo». 

Come riportato da News from Poland, il caporedattore di Radio Kraków, Marcin Pulit, ha cercato di ridimensionare la vicenda, sostenendo che fosse tutto un grande esperimento proprio per mostrare i rischi legati all’utilizzo dell’IA nel giornalismo e dicendosi stupito del «livello di emotività che ha caratterizzato l’esperimento, l’accusa [a Radio Kraków] di aver non meglio precisati secondi fini e i giudizi severi lanciati sulla base di informazioni inaccurate».

L’episodio, in sé secondario, è uno degli ultimi casi che ha riacceso i riflettori sulle implicazioni che l’IA ha per il mondo dell’informazione. Mondo dove, anche se poco percepito dalla popolazione, l’intelligenza artificiale è già molto presente. Il professor Charlie Beckett (Lse) ha lanciato il progetto JournalismAI nel 2019. L’iniziativa coinvolge una rete di ricercatori e giornalisti nel tentativo di mappare gli utilizzi di tecnologie legate all’IA nel giornalismo e identificarne utilizzi virtuosi che non ledano la qualità giornalistica del lavoro prodotto dalle redazioni che si avvalgono di questi strumenti.

Le distorsioni che l’IA può recare all’accuratezza delle informazioni sono, infatti, molteplici e già molto discussi – una puntata di Illiberali ha trattato, per esempio, della tecnica dello spoofingMa sono ancora limitate le riflessioni della comunità accademica e dei media stessi su come queste tecnologie possano essere impiegate per migliorare il lavoro di redazione. Dati empirici sullo state delle cose sono quindi fondamentali per formarsi idee fondate. 

Uno dei prodotti più completi del team di Beckett è stata la ricerca Generating Change. A global survey of what news organisations are doing with artificial intelligence pubblicata nel 2023 (e qui riassunta in un breve video). Il report si basa su un sondaggio condotto con centoventi redattori, giornalisti, esperti tech e operatori dei media, rappresentanti centocinque giornali in quarantasei paesi. 

Tra i risultati più interessanti meritano di essere segnalati i seguenti. Primo, più di tre quarti degli intervistati sostiene di utilizzare già tecnologie legate all’IA per raccogliere, confezionare o diffondere le notizie. Secondo, solo un terzo delle redazioni sostiene di essere attrezzata per fronteggiare le sfide poste dall’utilizzo di queste tecnologie. Terzo, una delle sfide principali secondo la maggior parte degli intervistati riguarda il rendere questo tipo di tecnologie più oggettive e meno inclini e riprodurre stereotipi (de-biasing, in inglese). 

Questo ultimo punto è un elemento cruciale per il lavoro dei media. Come studiato esaustivamente dal progetto The Human Error Project all’Università di San Gallo in Svizzera, coordinato dall’antropologa Veronica Barassi, anche se le tecnologie legate all’IA vengono spesso presentate come rimedio contro i limiti cognitivi dell’essere umano, il modo in cui sono state programmate tende a ricreare errori sistematici, bias e imprecisioni molto simili a quelli commessi dagli esseri umani quando si tratta di profilare degli individui (profiling), con conseguenze dirette sulla rappresentazione di comunità e gruppi. 

Automatizzare interamente i processi redazionali espone quindi al rischio che questi errori diventino più difficili sia da individuare che da risolvere, venendo così integrati nelle pratiche giornalistiche nello stesso modo naturalizzato e impercettibile in cui lo sono i pregiudizi e gli stereotipi delle intelligenze non artificiali. 

Entra nel club, sostieni Linkiesta!

X

Linkiesta senza pubblicità, 25 euro/anno invece di 60 euro.

Iscriviti a Linkiesta Club