Grande FratelloLa talpa di Cambridge Analytica: «Esistono migliaia di dati sugli utenti italiani che i partiti potrebbero usare»

Brittany Kaiser, ex dirigente della società accusata di aver manipolato i dati di 87 milioni di utenti su Facebook: «So che ci sono informazioni sui comportamenti degli elettori italiani conservati e acquistabili senza problemi»

LEON NEAL / AFP

Brittany Kaiser è la talpa che ha contribuito a far conoscere al mondo come i dati degli utenti nei social network vengono usati per manipolare e minacciare la democrazia. Lo ha fatto rivelando, assieme a Christopher Wylie, i dettagli del suo lavoro come business director in Cambridge Analytica, l’azienda che nel 2016 ha analizzato i dati di 87 milioni di utenti di Facebook. Nel suo libro La dittatura dei dati (HarperCollins), Kaiser spiega nel dettaglio la tecnica con cui gli algoritmi della compagnia analizzavano i “mi piace”, i commenti e le pagine visitate dagli utenti per elaborare pubblicità personalizzate. «Il Santo Graal della comunicazione è quando riesci a modificare il comportamento della gente», ha detto il ceo di Cambridge Analytica, Alexander Nix, che ha gestito la raccolta dati per la campagna elettorale di Donald Trump del 2016. «Nonostante lo scandalo di Cambridge Analytica, tante aziende continuano a raccogliere il maggior numero possibile di dati su di noi. Più ne hanno, più è facile convincerci ad acquistare un prodotto o votare per un particolare partito politico. Possono capire i nostri gusti, le nostre paure, le nostre abitudini. Riescono così ad avere un’immagine molto precisa di ciò che facciamo ogni giorno», sostiene Kaiser.

Kaiser, quali dati riescono a ottenere dalle nostre attività online?
Tutto. Il tuo nome, dove vivi, la tua età, cosa mangi a colazione la mattina, dove ti piace andare in vacanza, cosa ti piace leggere. Non solo: quanto tempo ci metti a leggere una pagina, in quale punto ti fermi per prendere una pausa e quali passaggi sottolinei. Una volta ottenuti abbastanza dati sul comportamento e lo stile di vita, algoritmi riescono a prevedere anche la personalità delle persone. La personalità guida il nostro comportamento. E quando puoi predire il comportamento di qualcuno, puoi intervenire per modificarlo.

È quello che ha fatto Cambridge Analytica per Leave.eu, il gruppo di campagna politica che ha sostenuto l’uscita del Regno Unito dall’Unione europea nel referendum del giugno 2016?
Sì, entrambi i gruppi hanno negato, ma nel libro scrivo nel dettaglio cos’è successo tra Cambridge Analytica e Leave.eu da quello che ho visto quando abbiamo iniziato a lavorare con loro. Abbiamo ricevuto da loro i dati dei cittadini britannici appartenenti allo Ukip (il partito creato da Nigel Farage, prima del Brexit Party, ndr) e anche i dati d’indagine sul tipo di inglesi che volevano lasciare l’Unione europea e perché. E poi li abbiamo “modellati”.

In che senso modellati?
Grazie a degli algoritmi abbiamo capito quali tipologie di persone tra tutti gli elettori britannici potevano essere convinti a votare a favore del Leave cosa si doveva dire per ottenere questo risultato. E abbiamo dato queste informazioni a Leave.eu.

Cos’hanno fatto con queste informazioni?
Non posso dirlo con certezza, perché abbiamo lavorato per loro solo per alcuni mesi, ma è molto probabile che non abbiano solo preso atto dei dati, ma che abbiano agito.

C’è il rischio che anche aziende o partiti italiani possano aver usato i dati di Cambridge Analyitica?
Non ho prove dell’utilizzo di singoli partiti. Ma so per esperienza diretta che esistono molti dati a disposizione sui comportamenti degli elettori italiani. Dati che i vostri partiti potrebbero comprare senza problemi, se volessero usarli.

Ma dovrebbero esistere compagnie simili a Cambridge Analytica per poterli analizzare.
Nonostante lo scandalo, ce ne sono ancora centinaia, se non migliaia. Al momento non siamo più protetti di quanto non fossimo nel 2016. Non lo dico solo io. C’è stato di recente un rapporto pubblicato dall’Università di Oxford che segnala la presenza di società molto simili a Cambridge Analytica che lavorano specificamente nella sfera politica. Le aziende hanno ancora il diritto di possedere la maggior parte dei dati che hanno da anni su di noi. L’unico modo per agire davvero su questo fenomeno è avere una legislazione e una regolamentazione che proteggano i nostri dati. Perché in questo momento ciò che queste aziende stanno facendo è legale nella maggior parte dei paesi, specialmente negli Stati Uniti, dove non esiste ancora il Gdpr (il regolamento generale sulla protezione dei dati approvato nel 2018 dall’Unione europea, ndr).

Ecco, per fortuna in Europa almeno c’è il Gdpr. Basta questo a proteggere l’uso malsano dei nostri dati?
Le leggi fanno la differenza. Ma senza la tecnologia adeguata è molto difficile permettere alle persone di esercitare i propri diritti. Per fortuna esistono alcune nuove piattaforme emergenti molto interessanti che aiuteranno gli utenti a richiedere una copia dei loro dati, a decidere di eliminarli, continuare a condividerli o addirittura monetizzarli. È una situazione del tutto nuova ed eccitante per tutelare la privacy dei dati e la gestione dell’identità digitale. I veri effetti di queste nuove tecnologie li vedremo a partire dal 2020. Ma il problema è un altro.

​La maggior parte delle persone non è abbastanza digitalizzata per capire qual è la situazione dei loro dati personali. Sono ancora pochi quelli che hanno chiesto alle compagnie quali dati sono conservati per poterne avere una copia o per richiedere l’eliminazione


Brittany Kaiser

Quale?
La maggior parte delle persone non è abbastanza digitalizzata per capire qual è la situazione dei loro dati personali. Sono ancora pochi quelli che hanno chiesto alle compagnie quali dati sono conservati per poterne avere una copia o per richiedere l’eliminazione.

È solo un problema di ignoranza digitale?
No, anche di quella che chiamerei “ignoranza mediatica”. È difficile individuare la disinformazione online, così com’è ostico capire quando gli annunci politici usano fake news per convincerti a pensare in modo diverso. Non siamo ancora preparati. E il 2020 potrebbe anche essere peggiore del 2016.

Perché?
Il motivo numero uno? Mark Zuckerberg. Ha deciso di adottare una policy sugli annunci di Facebook in base alla quale i politici non sono tenuti ad aderire agli stessi standard che io e te dobbiamo rispettare nel social network. I politici possono dire quello che vogliono perché il loro contenuto è considerato degno di nota. Quindi si crea un paradosso per cui se io pubblicassi gli annunci tipici della pagina di Donald Trump che includono disinformazione e fake news sarei bannata e il mio contenuto verrebbe rimosso da Facebook. Questa policy sta consentendo la proliferazione della disinformazione e forse persino dei discorsi d’odio nella più grande piattaforma di comunicazione e pubblicità del mondo.

La soluzione potrebbe essere quella di bannare gli annunci politici su Facebook? Twitter lo ha già fatto.
Sarebbe solo una soluzione temporanea. La vera soluzione è che queste aziende come Facebook investano in risorse umane e intelligenza artificiale per identificare fake news, deepfake, discorsi d’odio e vietarli dalla piattaforma. Credo che gli annunci politici dovrebbero rimanere in futuro, ma in questo momento non abbiamo la capacità di proteggere le persone da coloro che vogliono abusarne.

In attesa di questi investimenti cosa possiamo fare noi utenti per difendere i nostri dati?
Bisogna subito responsabilizzare i giovani affinché sviluppino capacità di intelligenza digitale. Esiste un nuovo standard globale: il quoziente di intelligenza digitale. Lo ha sviluppato da un’organizzazione chiamata Dq Institute, ed è supportato dal World Economic Forum, e dallo Ieee (Institute of Electrical and Electronic Engineers). Indica la capacità di un utente di capire come proteggersi online con i protocolli di sicurezza informatica di base, come identificare le notizie false o il cyberbullismo. Sono competenze indispensabili per vivere nel mondo digitale e consentire ai bambini di utilizzare i dispositivi in modo sicuro. Le nuove generazioni non hanno ancora preso cattive abitudini.

Quelle meno giovani però le hanno ancora. Il problema della disinformazione online e della manipolazione dei dati riguarda soprattutto loro.
Molte persone che hanno 30 o 40 anni hanno avuto a che fare con la tecnologia per così tanto tempo durante la loro vita. Non hanno idea di quanti dati personali produciamo e distribuiamo ogni giorno. E quindi sarà molto difficile per le persone cambiare questa abitudine. Ma i bambini sono una storia completamente diversa perché stanno solo iniziando a usare i dispositivi per la prima volta. Possono essere istruiti su come usarli in modo molto positivo.

Quindi alla fine la responsabilità è sempre dell’individuo?
Penso che le aziende e i partiti politici debbano diventare più responsabili e trasparenti su come usano i dati delle persone. Ma è anche vero che ogni giorno noi stessi siamo complici del nostro targeting. Lo facciamo quando scarichiamo un’app e accettiamo senza leggere i termini e condizioni. Oppure diamo ok all’uso dei cookie sul nostro computer senza esaminare le opzioni ogni volta che visitiamo un sito Web.

Alcuni dicono che lei non sia una fonte affidabile ma abbia fatto tutto questo per pubblicità.
Sono il testimone più affidabile emerso finora. Ho consegnato oltre centomila documenti agli investigatori e alla stampa. Ogni singola cosa che era sul mio computer di lavoro o hard disk. Ho trascorso giorni, forse settimane della mia vita, facendo testimonianza a mie spese. Decidere di rischiare la vita, la carriera e la sicurezza per fare qualcosa del genere non è facile. Ho preso questa decisione per il bene pubblico perché penso che le persone meritino di saperlo. Far capire alla gente cos’è successo è l’unico modo in cui possiamo andare avanti ed essere protetti in futuro. Non è mai troppo tardi per fare la cosa giusta.

Entra nel club, sostieni Linkiesta!

X

Linkiesta senza pubblicità, 25 euro/anno invece di 60 euro.

Iscriviti a Linkiesta Club