Profilazione inconsciaCosa (non) sappiamo dei dati sulla privacy dei siti porno

Nel 2022, l’Italia si è posizionata al sesto posto tra i Paesi con la maggior circolazione di utenti su Pornhub a livello mondiale. Il funzionamento di questa economia, però, rimane ancora opaco e il bisogno di un meccanismo più trasparente è primario per tutelare le persone

Pexels

Da oggi comincia la campagna #StopDataPorn, un’iniziativa che nasce per alimentare il dibattito sul problema della privacy e sull’uso illecito dei dati sensibili degli utenti di piattaforme pornografiche mainstream, in particolare di Pornhub. «Il progetto è nato qualche anno fa in collaborazione con varie realtà che si occupano di diritti digitali», racconta a Linkiesta Alessandro Polidoro, avvocato che si occupa di reati informatici e protezione dei dati personali , «è stata fatta un’indagine di reverse-engeneering, analizzando il funzionamento dei meccanismi degli algoritmi di Pornhub». 

In particolare è stata fatta una ricerca approfondita sulle funzionalità e i meccanismi degli algoritmi di profilazione degli utenti, i quali, lasciando quotidianamente tracce sul web, permettono (inconsciamente) ai software di elaborare e proporre pubblicità personalizzata, tramite il noto targeted advertising, ma anche di conoscere gusti, intimità e debolezze, rendendo potenzialmente manipolabili gli utenti stessi.

Il funzionamento degli algoritmi è ancora una materia oscura per il grande pubblico per via del cosiddetto segreto industriale, contenente informazioni non brevettabili, che sono di proprietà dell’azienda. Solitamente, spiega Polidoro, si tratta di «informazioni tecniche, tecnologiche, commerciali e strategiche sotto forma di relazioni, comunicazioni anche di carattere interno, studi, rapporti, elenchi, dati, tabelle, schede e tabulati» che possiedono generalmente un grande valore economico. Le aziende, proprio per proteggersi dalla concorrenza, ricorrono a tutele giuridiche per ottenere un’adeguata protezione. «Molto spesso – aggiunge Silvia Semenzin, ricercatrice in sociologia digitale all’Università Complutense di Madrid e attivista per i diritti umani digitali – le piattaforme pornografiche mainstream non vengono sanzionate anche perché c’è tanta vergogna . È un gigantesco tabù anche solo parlarne, perché significa riconoscere che le persone le usano».

Il progetto #StopDataPorn è nato più di due anni fa, con l’intenzione di rilevare i bias dell’algoritmo. E dopo aver individuato questi cortocircuiti cognitivi, gli autori hanno rintracciato anche i casi in cui si sono verificate violazioni del Gdpr italiano, il regolamento generale per la protezione dei dati. La ricerca ha identificato più di dieci illeciti, che sono stati poi raccolti in tre macrocategorie.

La prima riguarda la mancanza di una richiesta di consenso nel momento in cui la piattaforma processa i dati sensibili degli utenti, riguardanti l’orientamento sessuale. I tracker utilizzati si presentano sotto forma di banner nascosti dei cookies, impossibili da rimuovere e a cui è altrettanto difficile sottrarsi, soprattutto per gli utenti inesperti. Questi dispositivi vanno a ledere i diritti umani digitali, tra cui il diritto all’intimità e il diritto alla privacy, che nell’articolo 9 della normativa europea riporta che «è vietato trattare dati personali che rivelino l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche […] nonché trattare dati genetici, dati biometrici intesi a identificare in modo univoco una persona fisica, dati relativi alla salute o alla vita sessuale o all’orientamento sessuale della persona». 

La piattaforma, inoltre, condivide informazioni private degli utenti con parti terze, sia esterne alla compagnia, sia internamente a Mindgeek, una società che oltre a Pornhub possiede altre centosettanta tra aziende e siti web, principalmente legati al mondo della pornografia online e dell’intrattenimento per adulti. Tra questi, figurano YouPorn, RedTube e Xtube. Recentemente la holding è stata acquisita da Ethical Capital Partners, un fondo di cui Rocco Meliambro è presidente e che – come si legge dal loro sito – «cerca opportunità di investimento in settori che richiedono una leadership etica di principio». 

«Per noi, come persone, è ancora difficile comprendere l’importanza dei dati, in assoluto», racconta Greta Elisabetta Vio, cofondatrice di Virgin & Martyr, un progetto collettivo di divulgazione e confronti sui temi dell’educazione sessuale, socio-emotiva e digitale. «Il discorso va oltre Amazon che vende l’aspirapolvere che vogliamo (anche se questo già ci scandalizza). Non abbiamo capito cosa significhi veramente continuare uno scambio di dati con piattaforme che poi li rivendono. È vero che il dato è la moneta del futuro, ma come società non riusciamo ancora a interiorizzare il concetto». Un esempio non troppo lontano è quello che un’inchiesta del Washington Post ha definito “sorveglianza mestruale”, cioè il controllo delle dipendenti da parte dei datori di lavoro attraverso i dati rilasciati sulle app per monitorare il ciclo mestruale.

L’ultima macrocategoria riguarda il profiling illegale utilizzato per fini economici. Trafugando i dati sensibili degli utenti, la piattaforma categorizza le persone unilateralmente, frammentadone la personalità e assegnando a ogni fruitore o fruitrice una precisa (e stereotipata) identità. Nonostante Pornhub sia in grado di rilevare facilmente l’identità di genere e le preferenze sessuali di ogni utente, però, continua a proporre contenuti pensati per un pubblico eterosessuale maschile, contribuendo a rafforzare una narrazione quantomeno incompleta e nociva. Questo tipo di rappresentazione, calato in un una società come quella italiana, dove l’educazione sessuale è assente, diventa l’unico riferimento all’interno di un immaginario non solo mainstream, ma spesso anche profondamente violento. 

I dati e le tracce che lasciamo online sono anche un mezzo per reiterare le ingiustizie, soprattutto nei confronti delle minoranze, che anche nella vita offline non trovano un’adeguata rappresentazione. Si parla, quindi, di un’egemonia rappresentativa, che appiattisce la complessità. L’avvocato e policy advocate Nathan Newman parla di Data Justice, un concetto ripreso dall’omonimo progetto sottotitolato “Challenging Rising Exploitation and Economic Inequality from Big Data” realizzato insieme a Frank Pasquale, professore di legge presso l’università di Maryland (US) e autore del libro “The Black Box Society. L’obiettivo del progetto è quello di costruire un movimento di giustizia nell’utilizzo dei dati, l’equità e il rispetto per tutti gli individui che si collegano online, attraverso uno sguardo collettivo e focalizzandosi non tanto sulla privacy del singolo, quanto al modo in cui le categorie vengano discriminate attraverso la raccolta, l’analisi e l’uso di queste informazioni.

«Con la campagna #StopDataPorn vorremmo riuscire a fare rumore, soprattutto per fare pressione sul garante perché tratti il caso con urgenza, nella speranza che cominci anche un dibattito pubblico per far sì che le piattaforme vengano regolamentate il prima possibile», chiude Polidoro. Per cercare un riscontro abbiamo provato a contattare la parent company di Pornhub, senza ricevere risposta.

Entra nel club, sostieni Linkiesta!

X

Linkiesta senza pubblicità, 25 euro/anno invece di 60 euro.

Iscriviti a Linkiesta Club