L’ipnosiIl caos alimentato dai social è niente rispetto a quello che arriverà con l’intelligenza artificiale

Quando l’AI generativa s’imporrà come standard della comunicazione digitale bisognerà proteggere la democrazia e preservare la fiducia reciproca con regolamenti chiari. Altrimenti saremo preda di algoritmi, fake news irriconoscibili e altre forme di persuasione online

Unsplash

Adesso siamo tutti convinti che i social media determinino le opinioni politiche, e di conseguenza influenzino il voto. Non era così all’inizio, quando un tipico atteggiamento, un po’ supponente, si condensava nel mantra: «…e poi c’è la vita vera». Abbiamo (hanno) scoperto che nell’ambito della vita vera ci sono i social media. Accadeva allora (sembra un tempo remoto, ma siamo a dieci anni fa, o poco più) che la tecnologia permettesse una precisione nella comunicazione politica prima impensata e impensabile. Eravamo, tuttavia, ancora alla segmentazione per cluster di elettori, da raggiungere con i magazine e attraverso la distribuzione dei contenuti (impliciti, non con messaggi pubblicitari diretti) sui vari canali televisivi; eravamo arrivati (allora) ai messaggi personalizzati. E nel caso più estremo (Cambridge Analytica) guidati non dai fattori socio-economici e demografici, ma psicologici. Ovviamente più potenti.

Vista dalla prospettiva del 2023 quella tecnologia sembra quasi far tenerezza, visto che l’intelligenza artificiale ha una capacità di calcolo, di potenza e di pervasività, enormemente superiore a quella disponibile anche sei o sette anni fa. Oggi si può fare molto, molto di più, e ancora di più si potrà fare a mano a mano che la tecnologia, in particolare l’intelligenza artificiale generativa, s’imporrà come standard della comunicazione digitale.

Cosa abbiamo capito allora, in questi anni, dell’impatto dei social media sulla politica, al di là dell’ovvia constatazione che si possono fare molte più cose, più velocemente e più economicamente? Abbiamo capito che i social media, con la loro ubiqua occupazione del nostro tempo quotidiano (solo di poco inferiore a quello preso dalla Tv), abbiano determinato una pericolosa polarizzazione della politica. Questo non in un solo paese, ma in tutto l’Occidente. Si è cominciato con la Brexit nel giugno del 2016; si è continuato con l’elezione di Donald Trump nel novembre successivo; e oggi è difficile che, senza una qualche polarizzazione del linguaggio, sia a destra come a sinistra, sia possibile affermare una qualunque strategia politica.

Se i social media sono parte integrante dello scenario politico, si presenta un’altra domanda: dato che la loro forza di influenza è determinata dalle capacità tecnologiche, cosa dire all’avvio di un salto tecnologico incommensurabile con il passato? Se la tecnologia prima disponibile aveva un potere notevole d’influenza, cosa succede quando questo potere cresce esponenzialmente? È un tema affascinante, complesso e controverso, di cui vedremo lo showdown nelle elezioni presidenziali americane del prossimo anno, ma ci sono già adesso le conseguenze. Vediamo passo dopo passo.

Il punto cruciale (se ce n’è uno nella tecnologia, è proprio questo) è l’improvvisa diffusione dell’intelligenza artificiale generativa. Parliamo di ChatGPT , da oggi in Italia anche Bard di Google et similia. In poche settimane, è diventato un fenomeno clamoroso e l’oggetto del desiderio (e delle paure) di molti. Quanti posti di lavoro eliminerà? In che modo cambierà il modo di lavorare in svariati settori e professioni? Quindi la domanda è: dove sta portando la politica o dove la porterà?

L’alterazione delle conversazioni politiche
Procediamo con ordine. Quali sono i cambiamenti già avvenuti? Dal punto di vista operativo, l’IA può generare discorsi politici in tempo reale sulla base di pochi concetti forniti alla macchina. Possiamo ottenere una sintesi immediata, punto per punto, delle opinioni espresse sui social media (mediante un’integrazione del sistema). Possiamo ottenere i pro e i contro su un determinato argomento, ad esempio, in vista di un dibattito politico, di un’intervista o di qualsiasi altra occasione di comunicazione. Possiamo, con l’ausilio dell’intelligenza umana, creare un modello predittivo che la macchina stessa si occupa poi di perfezionare. In sostanza, possiamo fare molte cose in modo più veloce, più potente e più efficace rispetto a quanto si fa attualmente. Anche il lavoro dello scienziato politico (se esiste realmente la possibilità che la politica sia anche scienza) diventa più efficiente, esaltante e divertente. Il fatto che raramente in Italia si usi una metodologia scientifica nel condurre le campagne elettorali, non elimina la sua possibilità, o la sua esistenza in paesi come gli Stati Uniti. L’applicazione dell’intelligenza artificiale ai social media può fare molte altre cose che cambiano radicalmente la natura stessa della politica. Vediamo quali. 

Può portare il dibattito politico su un terreno completamente, o parzialmente, manipolatorio. Prendiamo l’unità di base della politica, cioè la conversazione: una persona esprime un’opinione e qualcun altro la approva o la contraddice. Questa è la base del consenso, vale a dire, la base della politica. Gran parte di queste conversazioni si svolgono oggi sui social media.

Ciò significa che la conversazione tra le persone è mediata dalla macchina: vedo ciò che l’algoritmo pensa che probabilmente mi piacerebbe vedere, e lo stesso avviene per il mio interlocutore. Quello che vedo nel flusso dei social non è tutto, ma solo una parte selezionata e determinata da un volere terzo, l’algoritmo. Anche nella vita reale, non tutti parlano con tutti, perché una parte delle conversazioni è voluta (dagli stessi interlocutori), mentre un’altra parte è casuale. Viviamo in un equilibrio tra caso e necessità. Nel mondo virtuale, il caso però non esiste (non esiste proprio tecnicamente, cioè non è possibile inserire in un qualunque algoritmo il caso) e la timeline che vediamo è determinata dalla logica ben nota di farci cliccare il più possibile su ciò che vediamo, qualsiasi cosa essa sia, purché ci mantenga esposti al media per più tempo possibile. Questo è solo il primo passo rispetto a ciò che l’intelligenza artificiale di nuova generazione può fare.

Gli algoritmi ipnotici di TikTok
TikTok già usa tecnologie di intelligenza artificiale molto sofisticate. Questo social media, è discusso non solo perché acquisisce un sacco di dati sugli utenti, ma per il suo algoritmo ipnotico, che riesce a “immobilizzare” gli utenti su una sequenza di video che non lascia scampo, nel senso che riesce difficoltoso staccarsene. 

Il Wall Street Journal ha fatto un esperimento su TikTok. Il titolo è “Come l’algoritmo di TikTok capisce i tuoi desideri più profondi”, staremmo per dire più segreti, perché questo è il senso del video (tredici minuti formidabili) tratto dall’inchiesta del quotidiano. In estrema sintesi, funziona così: all’inizio, come avviene per tutti i social media, ogni utente indica i suoi interessi per aiutare l’algoritmo a individuare i contenuti preferiti. 

Comincia perciò il flusso dei video di vario tipo, non ancora monotematici, ma basta esitare su un video strano, cioè non esattamente aderente alle preferenze espresse, perché l’algoritmo registri l’esitazione; allora, cerca di “capire” cos’è che di quel video attrae davvero l’utente; perciò ne manda altri in rapida successione, collegati per qualche motivo a quest’ultimo. Si vedrà come si comporta l’utente: bastano quaranta minuti per profilare esattamente quali video davvero l’utente desidera vedere, al di là delle preferenze fornite all’inizio. Da quel momento sarà sommerso di video analoghi.

Se, ad esempio, il video, attraverso la musica, le parole o l’atmosfera, sembra avere una connotazione depressiva, si attiverà una sfilza di altri video con le stesse caratteristiche. Così, l’utente si trova intrappolato in una tana del coniglio popolata solo da video depressivi. E il circolo vizioso si stringe: diventa difficile uscire da quella tana (forse sarebbe meglio leggere il racconto omonimo di Franz Kafka, che è splendido). 

Ovviamente, ci possono essere tane del coniglio molto positive, come quelle destinate all’esercizio fisico, alla divulgazione scientifica, e così via, ma naturalmente ci preoccupiamo degli esiti peggiori, tra cui le varie sfide in cui sono impegnati gli utenti, soprattutto se minorenni: nel blackout challenge, o comunque per attività ad esso collegate, in diciotto mesi, quindici ragazzini di dodici anni o meno hanno perso la vita in questo modo. I ragazzi provocano il soffocamento con oggetti domestici fino a perdere i sensi, filmano l’adrenalina che hanno provato nel riprendere i sensi e poi postano i video sui social media. La sfida è proprio questa: filmare il momento in cui si riprendono i sensi, ma alcuni casi sono stati letali.

Nella grandissima parte delle situazioni, ovviamente, le conseguenze non sono tragiche, ma comunque incidono sulla mente delle persone, come ad esempio, le undici teorie cospiratorie sul vaiolo delle scimmie che hanno ottenuto 1,4 milioni di visualizzazioni su TikTok in un giorno. Lo stesso, recentissimamente, è accaduto per la vicenda del Titanic, tanto che un quotidiano americano ha titolato che la teoria del complotto sul Titanic fa perdere la testa a milioni di persone. 

Nel caso della politica le tipiche tane del coniglio sono, ad esempio, le teorie cospirazioniste. Secondo Vox, TikTok oggi negli Stati Uniti è lo strumento più efficace per diffondere i messaggi politici. Gli americani spendono ottantadue minuti ogni giorno su TikTok, il doppio rispetto a Facebook e Instagram. È il regno delle teorie cospirazioniste. In un video di TikTok poi postato su Twitter si vede un uomo con un sacco di armi, che dice di prepararsi alla visita del fisco. Il punto è la contestazione dell’Inflation Reduction Act, con il quale Joe Biden sta rilanciando l’economia americana attraverso enormi investimenti sulla tecnologia e – appunto – sull’intelligenza artificiale. I Democratici hanno provato a contrastare il diluvio con dei post che puntualizzano, citano i fatti, propongono distinguo, ma non c’è modo di entrare nelle tane del coniglio. Il presidente filippino Ferdinand Marcos Jr. si è affidato al suo esercito di troll su TikTok per conquistare i voti dei giovani filippini nelle elezioni del 2022, riscrivendo la storia della sua famiglia, inclusa quella del padre, dittatore del Paese per molti anni. Entrare nella mente dei giovani non è un compito facile, ma TikTok ci riesce, o meglio, ci riesce a modo suo.

La conquista della intimacy
Qui non siamo più ai suggerimenti di acquisto di Amazon o le raccomandazioni di Netflix (hai visto quello, quindi potrebbe piacerti questo), ma all’agire sulla psiche individuale e poi collettiva, cioè al tentativo di influenzare le menti. Ciò significa che il successo sui social media non è più garantito dalla ricerca dell’attenzione (oramai insufficiente), ma dalla conquista di una qualche intimacy con l’utente. 

I sistemi di intelligenza artificiale come ChatGPT e Bard padroneggiano l’arte del linguaggio. Si chiamano LLM (Large Language Model) perché lavorano sulla forma del linguaggio, cui subordinano i contenuti. Questo crea anche le allucinazioni, cioè la circostanza che nelle risposte, ad esempio, siano citati libri che non esistono (ma che, verosimilmente, potrebbero esistere); il punto però non è questo – in fondo, nella vita reale succede lo stesso: siamo pronti a indicare una causa per ogni fenomeno, senza essere sicuri della loro correlazione -, quanto nel potere stesso del linguaggio. Il mondo è basato sul linguaggio. Il linguaggio è il sistema operativo del genere umano, o meglio della sua civilizzazione. Esprimiamo amore e odio con le parole, trasmettiamo sensazioni e pensieri con le parole, impariamo e insegniamo con le parole. Il linguaggio è tutto e ci permette di essere umani. Non per caso nella Bibbia si dice: «In principio era il Verbo»

 Chi padroneggia il linguaggio accede facilmente alla persuasione, cioè conosce il modo (esattamente le parole, la retorica) che servono per entrare in relazione, cioè in una relazione personale, intima con l’utente. La relazione intima si crea quando una delle due parti scopre le vulnerabilità dell’altra; obiettivo non impossibile per una super-intelligenza allenata da miliardi di documenti da cui può trarre le parole giuste per far scattare appunto una intimità. 

La differenza è che quando si parla di interessi, le argomentazioni sono necessariamente razionali, quando si parla di psiche, non esistono gli argomenti, ma le emozioni e, secondo quanto insegna Antonio Damasio, è l’emozione a guidare la ragione, e non viceversa. 

Per la politica questa è una rivoluzione copernicana, uno sconvolgimento del contesto in cui maturano le opinioni politiche. OpenAI ha dichiarato che il suo sistema non può essere utilizzato in campagne politiche. Oggi le campagne politiche sono molto complesse e l’uso dell’intelligenza artificiale generativa è molto vario: in fondo risponde sempre una macchina.

Al di là di questo, si potrebbe comunque obiettare che la persuasione umana sia sempre migliore di quella artificiale, ma non è proprio così. All’Università di Stanford, è stato condotto uno studio in cui sono stati confrontati i messaggi generati dall’intelligenza artificiale di ChatGPT3 (oggi siamo alla versione quattro) con quelli generati da esseri umani, esprimendo opinioni a favore o contro rispetto a tre argomenti controversi: il divieto di portare armi, la tassa sulle emissioni di anidride carbonica e il congedo parentale retribuito. 

Lo studio ha dimostrato che i messaggi generati dall’intelligenza artificiale sono più persuasivi di quelli umani. Nello studio è scritto che «rispetto agli autori umani, i partecipanti hanno valutato i messaggi dell’IA come più oggettivi e logici, e anche meno arrabbiati». Ora, fermiamoci un attimo e immaginiamo questa capacità di persuasione combinata con la generazione di notizie false, anzi, di deep-fake, in cui si possono creare falsi relativi alla voce, all’immagine e al contesto. La narrativa generata dall’intelligenza artificiale diventa più potente, e se aggiungiamo contenuti falsi, la situazione diventa esplosiva. 

Le tane del coniglio e le fake-news
Ci troveremmo così con conversazioni artificiali che funzionano come trappole, simili al gioco delle tre carte in cui tutti i partecipanti sono finti, recitano la loro parte e aspettano di spennare qualcuno. Tutti i bot dialogano in attesa che un essere umano (un elettore) si inserisca nella conversazione. Avremmo una capacità persuasiva che cerca di dialogare con l’elettore nel punto in cui è più vulnerabile: il terreno psicologico. Avremmo algoritmi che creano infinite “tane del coniglio” in cui vengono ristretti cluster sempre più minuscoli di elettori.

Abbiamo visto le capacità persuasive dell’intelligenza artificiale generativa, ma non ancora le sue conseguenze, se intrecciate con la capacità di generare fake-news, la cui potenzialità è oggi enormemente accresciuta perché si tratta di tecnologie oramai alla portata cognitiva ed economica di (quasi) chiunque. Inoltre, mentre un tempo le fake-news erano fondamentalmente dei titoli di giornali, più o meno falsificati, oggi possono diventare fake-voice, cioè si crea un video con la persona reale che dice con la sua voce reale cose che non ha mai detto, semplicemente manipolando video veri del protagonista. Questo è accaduto poche settimane fa alle elezioni per il comune di Chicago

A un certo punto della campagna elettorale è spuntato un video di uno dei candidati (Paul Vallas) pubblicato da una sedicente testata locale (“Chicago Lakefront News”) in cui la sua voce affermava che «in passato i poliziotti potevano uccidere diciassette o diciotto persone e nessuno avrebbe battuto ciglio». In un lampo il video è stato diffuso, rilanciato, commentato, ecc. e ha ottenuto gran parte dei suoi effetti prim’ancora che arrivasse la smentita del candidato di non aver mai pensato di poter dire le cose che la voce diceva e che fosse cancellato da Twitter, insieme all’account da cui proveniva.

La smentita avrebbe risolto tutto nel mondo in cui c’erano solo quotidiani e telegiornali: sarebbe stato impossibile pubblicarlo (avrebbero prima chiesto conferma all’autore) e, eventualmente, sarebbe stato facile fermarne la diffusione. Nel mondo di oggi eliminare il tweet non elimina affatto la sua diffusione e la smentita, per essere efficace dovrebbe, come in un domino, arrivare esattamente a tutte le persone che hanno ricevuto il fake. È improbabile che sia tecnicamente possibile che questo avvenga, oltre che improbabile che il network che l’ha diffuso s’incarichi di farlo. Per curiosità, Paul Vallas dopo essere stato in vantaggio al primo turno, ha poi perso le elezioni al secondo. Non possiamo dire se e come questo video fake abbia determinato il risultato delle elezioni. Certo, è uscito il 27 febbraio, con le elezioni fissate al 28 febbraio.

C’è un precedente clamoroso in fatto di fake-news, sebbene praticamente senza nessuna particolare qualità tecnologica. Nel 2016, durante la campagna presidenziale americana, la notizia più diffusa su internet è stata il falso endorsement di Papa Francesco a favore di Trump. Il candidato effettivamente aveva incontrato il Papa, con photo-opportunity, e il Papa stesso ha dichiarato che non ha speso una sola parola sulle elezioni americane, e perciò su sue eventuali preferenze fra i due candidati. E tuttavia il titolo della news: “Il Papa sostiene Trump”, ha avuto un successo clamoroso. Quanti sono andati a vedere se effettivamente il Papa aveva appoggiato Trump?

Qui nasce un altro meccanismo potentissimo, che non è il falso in sé, ma il falso verosimile, come potremmo definirlo. Essendo in competizione con Hillary Clinton, che sull’aborto si dichiarava Pro-Choice, era possibile pensare che il Papa potesse sostenere Trump, che era, invece, Pro-Life. Era possibile pensarlo, ovviamente per chi non conoscesse la tradizione papale di neutralità elettorale.

Su questo, è illuminante il lavoro di Daniel Kahneman, Nobel per l’Economia, ma psicologo di formazione (“Pensieri Lenti e Veloci”, Mondadori) che analizza le due modalità di percezione del mondo esterno e dei fatti: quella veloce (perciò immediata, intuitiva) e quella lenta (riflessiva, logica). Per ragioni di praticità gran parte dei nostri pensieri sono del primo tipo, e in questo sono inclusi i pensieri politici, cioè la percezione politica delle cose. Il sistema intuitivo di pensare è alimentato grandemente dai bias (errori sistematici), per cui interpretiamo istantaneamente come credibile, quello che riteniamo vero, o verosimile, o atteso. Se questo è avvenuto per una notizia totalmente falsa, figuriamoci se ci fosse stata la voce del Papa opportunamente manipolata.

Il pericolo democratico
La conseguenza più molecolare di questa possibile invadenza delle fake-news nelle varie forme in cui possono essere false, e perciò alterare i risultati elettorali, è la caduta della possibilità di avere una opinione pubblica informata, o di avere tout court un’opinione pubblica, cioè la formazione spontanea di una percezione collettiva delle cose. Se l’opinione pubblica viene frammentata in tante bolle autoreferenti, alimentate dai bias, non c’è proprio modo che si formi una opinione pubblica. 

Inoltre, se tutto ciò che vedo, leggo e ascolto è inglobato in una bolla sospesa, indefinita, sfuggente e inafferrabile come posso distinguere il vero dal falso? Nel caos tra verità e falsità, l’idea stessa della democrazia, come insieme di opinioni che si confrontano e competono per il miglior governo del paese, verrebbe minata alla radice. La fiducia reciproca, che è il tessuto molecolare di ogni società, verrebbe messa in discussione. 

Qual è la verità? Finora si è detto: «chiedi a Google»; ma adesso abbiamo ChatGPT, una sorta di prompt oracle, un oracolo pronto a rispondere in qualche secondo praticamente a qualunque domanda. Google (ma non più Bard) comunque ci costringe almeno a vedere due/tre siti che ci propone per primi, ma con l’intelligenza artificiale generativa non c’è bisogno più nemmeno di leggere o guardare qualcosa, perché la risposta è istantanea. 

Pensiamoci un attimo: prima avevamo più quotidiani da leggere e confrontare per farci una nostra opinione; poi siamo passati ai siti che Google sceglie per noi, perciò limitando le scelte; adesso abbiamo già la risposta: che bisogno c’è di avere più opinioni?

Tutto formidabile se potesse esistere un’opinione unica, oggettiva e vera, ma non esiste, perché anche ChatGPT ha i suoi bias, o al meglio i bias derivanti dall’insieme di documenti che ha in pancia. E quali ha? Chi lo sa? Abbiamo fatto un gioco. Abbiamo chiesto a ChatGPT di scrivere una poesia (poetry) su Trump e una su Biden. Ecco il risultato (tradotto, ovviamente con ChatGPT)

Donald Trump
Nel mondo della politica, un nome risuona,
Donald Trump, una figura tanto osannata quanto in dubbio.
Un uomo controverso, con una voce potente,
La sua presenza divide, suscitando una scelta.
Un uomo d’affari diventato leader, dallo stile anticonvenzionale,
le sue parole e le sue azioni spesso provocano un processo.
Alcuni vedono un campione, una voce per la nazione,
Altri mettono in dubbio le motivazioni e cercano chiarimenti.
Con carisma e spavalderia, è salito sulla scena
facendo promesse, suscitando speranza e rabbia.
Un perturbatore della politica, che ha cercato di scuotere,
Sfidando le norme, ha fatto il suo percorso.
Le sue politiche sono state attuate con mano ferma,
con l’obiettivo di mettere l’America al primo posto, di prendere posizione.
Accordi commerciali, immigrazione, un muro da costruire,
La sua visione è chiara: proteggere e ricostruire.
Ma le polemiche si sono susseguite ad ogni tweet e ad ogni azione,
I critici hanno discusso, mentre i sostenitori sono rimasti intatti.
Il suo mandato è stato segnato da divisioni e dibattiti,
Una figura polarizzante, da amare o odiare.
L’era Trump, un capitolo della storia,
suscitando forti emozioni, suscitando indignazione.
Lo si ami o lo si detesti, il suo impatto è stato profondo,
Un personaggio che ha lasciato un suono indelebile.
Mentre il tempo avanza, l’eredità si dispiega,
La storia di Donald Trump, una storia ancora non raccontata.
L’impatto che ha avuto, le lezioni che abbiamo imparato,
Negli annali della storia, il suo posto da discernere.

Joe Biden
Nel regno della leadership, appare una figura,
Joe Biden, un uomo di saggezza e di anni.
Un faro di speranza, con un cuore compassionevole,
La sua presenza ispira un nuovo inizio.
Con empatia e sincerità, prende posizione,
Un unificatore, che tende la mano aperta.
Le sue parole risuonano con un appello all’unità,
unendo le persone e creando opportunità.
Nei suoi occhi, una visione di progresso e cambiamento.
Un campione della giustizia, pronto a riorganizzarsi.
La sua dedizione è incrollabile, di fronte alle prove,
Guidando con integrità, navigando nei corridoi della politica.
Con perseveranza ed esperienza, sale sul palco,
guidando la nazione, tra sfide e indignazione.
Cerca di guarire, di colmare il divario,
Lavorando per un futuro più luminoso, fianco a fianco.
Joe Biden, un nome che riecheggia nell’aria,
Un simbolo di resilienza, che dimostra che ci tiene.
Attraverso le battute d’arresto e gli ostacoli, rimane forte,
guidando il Paese e rimediando a ciò che non va.
Alla ricerca di un domani migliore,
La leadership di Joe Biden, un faro da seguire.
Una voce per gli emarginati, un campione per tutti,
Nelle sue mani, il progresso e l’unità si ergono forti.
Quindi restiamo uniti, mano nella mano,
Con Joe Biden, resisteremo sicuramente.
Le prove che verranno, gli ostacoli che affronteremo.
Con lui come guida, troveremo il nostro giusto posto.

A parte la qualità letteraria, neppure da buttar via, non si può certo dire che siano equidistanti; neppure si può dire che non rispecchino opinioni comuni (quelle migliori) su entrambi; e neppure che in ogni strofa non ci sia un nucleo di verità. Andiamo avanti: immaginiamo di chiedere cosa pensare del salario minimo o dell’aborto; delle posizioni di questo o di quell’altro leader. Avremo sempre delle risposte. Potremo mai saperne abbastanza, o più della macchina, per eventualmente controbattere con altri dati e altre opinioni? Abbiamo già le risposte; sono risposte ben riposte; sono risposte ben congegnate. What else?

Finora abbiamo parlato dei pericoli, perché sappiamo che i sistemi di intelligenza artificiale sono gli strumenti più efficaci per controllare la società, poiché consentono di controllare ogni singolo cittadino e ogni aspetto della vita sociale e personale. L’esempio più eclatante di sorveglianza di massa è rappresentato dal sistema di social ranking in Cina. Ogni innovazione della tecnologia permette ai sistemi autoritari di essere più efficienti, cioè più autoritari. Perciò quel che conta non è il luddismo anti-tecnologia, vano, impensabile e improponibile, quanto la domanda di governo di queste innovazioni da parte della volontà generale democratica che si esprime nella politica, nella sua rappresentanza politica.

Dobbiamo perciò ricordare che nonostante questi scenari preoccupanti, esiste la possibilità di evitare il peggio. Abbiamo ancora la possibilità di agire e di regolamentare adeguatamente l’utilizzo dell’intelligenza artificiale e dei social media. Se vogliamo proteggere la democrazia e preservare la fiducia reciproca nella società, dobbiamo promuovere una discussione aperta e coinvolgere tutti gli attori interessati: governi, industrie tecnologiche, esperti e cittadini. Dobbiamo definire norme e standard che garantiscano la trasparenza, l’accountability e l’etica nell’utilizzo dell’intelligenza artificiale dovunque, ma specialmente nella politica.

Non si interrompe un’emozione, figuriamoci la Soncini!

X

Linkiesta senza pubblicità, per gli iscritti a Linkiesta Club

Iscriviti a Linkiesta Club