Qualcuno l’ha inteso come un ramoscello d’ulivo dopo anni di contrasti con il mondo dei media tradizionali, altri parlano di inghippo nascosto. La novità è che Google sta testando un’intelligenza artificiale, sviluppata in casa, per la produzione di notizie giornalistiche, proponendola ad alcune testate statunitensi come il Washington Post e il Wall Street Journal.
La nuova intelligenza artificiale, chiamata provvisoriamente “Genesis” e definita «inquietante» da alcune fonti anonime interpellate dal New York Times, è in grado di generare contenuti giornalistici avanzati, fungendo come una sorta di ChatGpt ideato e ottimizzato per la produzione di notizie.
Si tratterebbe di un vero e proprio assistente personale per i cronisti, capace di raccogliere informazioni in maniera accurata, scrivere bozze e gestire la realizzazione e la programmazione di contenuti social. Uno strumento in grado di rivoluzionare il panorama editoriale internazionale, e in generale il modo di fare giornalismo. Secondo quanto riferito dai dirigenti delle testate contattate, la compagnia di Mountain View avrebbe iniziato a presentare il software (potenzialmente «più interessante per gli editori locali») fin dall’inizio della scorsa primavera, con l’intento di «sperimentare idee e aiutare i giornalisti nel loro lavoro, senza sostituire il ruolo essenziale che hanno nel raccontare, creare e verificare i fatti nei loro articoli», secondo quanto dichiarato dal portavoce Jenn Crider.
Eppure, non appena è trapelata la notizia, tra i corridoi delle principali redazioni americane si è registrata una certa palpitazione. Un po’ per la volontà – sempre più manifesta da parte delle organizzazioni editoriali di tutto il mondo – di esplorare le applicazioni dell’intelligenza artificiale anche in campo giornalistico, con il rischio di rendere ancora più precaria una professione già in crisi da tempo. Un po’ perché la storia recente del rapporto tra Google e i media occidentali non può che sollevare diversi dubbi su tutta la questione.
Una convivenza difficile
Da sempre Google ha un rapporto complicato con l’industria dell’informazione. Con la rapida crescita del web negli ultimi vent’anni, il principale motore di ricerca del pianeta ha assorbito enormi porzioni del settore pubblicitario, con quotidiani cartacei e notiziari locali di tutto il mondo che hanno assistito a un crollo sempre più verticale delle proprie entrate. Così, le testate hanno gradualmente indirizzato il loro business verso gli abbonamenti online. Alcune con più fortuna di altre.
Per anni, l’azienda fondata da Larry Page e Sergey Brin ha cercato di redimersi agli occhi degli organi di stampa, concedendo sovvenzioni ai notiziari locali e agli editori più piccoli e donando strumenti gratuiti come i software di trascrizione. Per farla breve: non è bastato. A giugno, Gannett Corporation – il più grande editore di giornali degli Stati Uniti – ha fatto causa a Google, accusandola di aver danneggiato il mercato e di aver rafforzato un sistema anticoncorrenziale a svantaggio degli attori più piccoli, costretti ad adeguarsi ai bassi ricavi offerti dal colosso di internet. Da tempo Big G è accusata di cannibalizzare il traffico delle testate giornalistiche mostrando porzioni di articoli direttamente nei risultati di ricerca: una pratica che non favorisce il traffico sui siti d’informazione, fondamentale per ottenere introiti pubblicitari.
Non è tutto. Attualmente, diversi governi in giro per il mondo stanno approvando leggi che impongono a Google di pagare direttamente i produttori di notizie per mostrare i loro contenuti sul suo motore di ricerca. In Canada, dopo la recente approvazione del News Act, la «tassa sui link», Google ha deciso di rimuovere i collegamenti web delle notizie nelle sezioni “Ricerca”, “News” e “Discovery” per tutti gli utenti. Una misura drastica, condannata anche dal primo ministro Justin Trudeau.
Intelligenza artificiale e giornalismo
Con il successo planetario di ChatGpt, anche le redazioni giornalistiche di tutto il mondo hanno iniziato a fare i conti con l’intelligenza artificiale e le sue implicazioni. Nonostante grandi testate, come Bild in Germania, abbiano già rimpiazzato alcuni dei propri dipendenti con l’intelligenza artificiale, e altre siano in procinto di farlo, il problema dell’accuratezza di questi strumenti ha innescato un dibattito particolarmente acceso per tutto il settore, tra ottimisti e disfattisti (o apocalittici e integrati, per dirla alla Eco).
Lo stesso Bard, il chatbot rivale di ChatGpt sviluppato da Google, rappresenta uno strumento tremendamente fallace, in grado di fornire spesso e volentieri informazioni fattualmente errate. Internet pullula già di siti di news che sfruttano bot automatici per la produzione di contenuti spesso fasulli, pubblicati senza alcun controllo o rilettura. La possibilità di generare articoli su scala più ampia porterebbe a minore accuratezza, diffondendo disinformazione in maniera estremamente più dilagante di quanto già non accada. Ad esempio, all’inizio di quest’anno un’indagine ha rivelato che Cnet – uno dei più importanti siti di notizie tecnologiche al mondo – aveva pubblicato decine di articoli scritti dall’intelligenza artificiale, molti dei quali pieni zeppi di errori anche piuttosto grossolani.
C’è poi la discussione relativa all’utilizzo delle news online per l’addestramento delle intelligenze artificiali. Il cosiddetto scraping, il «raschiamento» attraverso il quale gli algoritmi entrano in possesso di dati utili per il proprio apprendimento automatico, è stato aspramente criticato da grandi gruppi come Nbc News e The Times, che hanno preso posizione contro le aziende tech che alimentano i propri software succhiando dati senza previa autorizzazione.
In altri casi, le parti hanno trovato un accordo: pochi giorni fa, l’Associated Press (la più grande agenzia stampa degli Stati Uniti) ha accettato di concedere in licenza il suo archivio di notizie a OpenAI, la compagnia sviluppatrice di ChatGpt. La disputa sulla legittimità di tale pratica (nel caso in cui non ci sia il consenso della testata interessata) resta però aperta. In questo senso, Genesis di Google vorrebbe aggirare il problema attingendo direttamente dalla fonte: il software stesso parteciperebbe alla realizzazione degli articoli e non dovrebbe più porsi il problema di estrapolare dati dalle notizie online delle stesse testate. Con tutte le conseguenze del caso.