Mind the gapC’è un altro divario tra uomo e donna ed è quello dei dati

Dalla medicina alle intelligenze artificiali, la nostra società mostra spesso solo i bisogni maschili, ignorando o sminuendo quelli femminili. Questo è causato (anche) dalla disparità della quantità di informazioni su ciascuno due sessi

La storia del genere femminile è una storia di assenze. Non se ne parla nell’arte, in letteratura, nella scienza, in economia, nella storia. Di conseguenza, non abbiamo dati riguardanti le donne. Ma il problema non si riduce alla sola dimensione e culturale. Il gender data gap è una questione attuale, che ha conseguenze su tutti gli ambiti della vita, talvolta in modo lieve, talvolta perfino mettendo a rischio la salute.

L’Agenda 2030 dell’Onu ha indicato come quinto obiettivo dell’umanità la parità tra i sessi. Per raggiungerla è necessario poter accedere a dati completi in vari ambiti, dalla violenza alla chimica, dalle infrastrutture alla mortalità. Dati di cui non disponiamo. L’Onu ha stabilito 72 indicatori di genere per monitorare la situazione mondiale. In Italia 38 indicatori su 72 non sono disponibili.

Ma quali sono le conseguenze dirette di questo divario? Una è visibile in ambito farmaceutico e medico. Per migliaia di anni la ricerca medica si è basata sulla convenzione che i corpi maschili potessero rappresentare l’umanità intera. E tutt’oggi risente di questa impostazione. È errato però pensare che uomini e donne siano uguali a livello biologico, o che i bisogni siano gli stessi.

Nei rari casi in cui le donne partecipano alla sperimentazione di un farmaco, questo viene somministrato quando i livelli ormonali sono al minimo, quando cioè il corpo femminile somiglia maggiormente a quello di un uomo. Nel 2016 uno studio sulla presenza femminile nelle ricerche statunitensi sull’HIV ha reso noto che le donne rappresentavano solo il 19,2% dei soggetti partecipanti alle sperimentazioni dei farmaci antiretrovirali. Cinque volte su sei le sperimentazioni sulle patologie cerebrali vengono condotte su maschi, eppure il rischio di soffrire di depressione nelle donne è maggiore del 70%.

Talvolta la causa del «Lei non ha niente, signorina» risiede proprio nel gender data gap. Per anni alcune malattie non sono state identificate, altre faticano a esserlo tuttora. Sono le cosiddette “malattie invisibili”. Ne soffre una donna su sette, ma non sono riconosciute dal servizio sanitario. Tra queste ci sono vulvodinia, neuropatia del pudendo, fibromialgia, endometriosi e dolore pelvico. Si tratta di sindromi invalidanti, talvolta curate con terapie sbagliate, i cui costi sono quasi sempre a carico della paziente. Parlando della vulvodinia, ad esempio, chi ne soffre stima una spesa tra i 20 e i 25mila euro per diagnosi e cura della malattia.

Lo studio condotto da Mergaert e Lombardo, ed esposta in “The Persistent Invisibility of Gender in EU Policy”, dimostra che le donne non sono integrate nelle ricerche scientifiche perché tenere conto di sesso e genere sarebbe oneroso. E le conseguenze sono disarmanti. Alcuni farmaci usati in caso di infarto per sciogliere i coaguli di sangue possono provocare emorragie importanti nelle donne. Altre medicine contro l’ipertensione riducono il rischio di infarto negli uomini, ma aumentano il rischio di morte legata a patologie cardiache nella popolazione femminile. O ancora, il defibrillatore cardiaco impiantabile – utilizzato nei pazienti affetti da malattie cardiache importanti – funziona solo negli uomini.

Ci sono donne esposte a un gran numero di agenti chimici quotidianamente. Parliamo delle lavoratrici nei centri estetici. Molti dei solventi e degli smalti utilizzati sono correlati al cancro, a patologie polmonari e ad aborti spontanei. Sebbene si sappia tutto sulle malattie da inalazione di polvere nei minatori, non si hanno dati specifici sulle malattie sorte in estetiste, parrucchiere, truccatrici, cosmetologhe.

Un discorso specifico meritano gli interferenti endocrini (Edc). Si tratta di sostanze chimiche presenti in un gran numero di smalti, creme, giocattoli, tende da doccia, profumi, detersivi. A differenza della maggior parte delle sostanze tossiche, dannose sul lungo periodo, possono causare patologie già a concentrazioni molto basse. È infatti noto che gli Edc sono un fattore di rischio per il tumore al seno, mieloma multiplo e tumore alle ovaie. Dopo dieci anni di lavoro a stretto contatto con gli interferenti endocrini il rischio di sviluppare un cancro al seno aumenta del quarantadue per cento.

Lo studio più recente in materia, pubblicato su “Science”, ha indagato le conseguenze dell’esposizione dei feti agli interferenti endocrini. Gli esiti indicano che queste sostanze alterano lo sviluppo del cervello del bambino e causano deficit cognitivi dopo la nascita. I risultati della ricerca sono spaventosi, ma non forniscono un quadro completo della situazione. «Abbiamo analizzato solo alcune sostanze. Se avessimo tenuto conto di altre che hanno un ciclo di vita lungo e di cui conosciamo gli effetti negativi sul cervello, lo scenario sarebbe ancora più preoccupante».

Nonostante si sappiano i rischi sulla salute, le ricerche non sono complete e spesso analizzano solo gli effetti sul neonato, non sulla donna. Ne consegue che la normativa sugli Edc è lacunosa. L’Unione Europea ha messo al bando gli interferenti endocrini nel 2015, ma non ne vieta l’importazione.

L’uomo non è misura di tutte le cose solo in ambito medico. Il divario di genere tocca anche le intelligenze artificiali. Ma se Siri facesse fatica a riconoscere la voce femminile rispetto a quella maschile, il problema si limiterebbe a un fastidio. In realtà la questione è più radicata.

La prima versione di Siri sapeva trovare venditori di Viagra e prostitute, ma non cliniche per abortire. Poteva aiutare in caso d’infarto – tra le prime cause di morte maschile – ma se le dicevi di aver subìto violenza sessuale rispondeva «non capisco cosa intendi con “mi hanno violentata”». Questi errori, seppur oggi siano stati corretti, sarebbero stati evitati da una squadra di informatici con una maggiore presenza femminile.

Le intelligenze artificiali apprendono da set di dati, detti corpora. Il meccanismo è semplice. Se ottengono discorsi maschili, sapranno identificarli. Se non ottengono discorsi femminili, non sapranno identificarli. Il problema è la qualità dei dati. Spesso sono parziali e ricchi di stereotipi. La macchina li assume, li accredita e li perpetua, spacciandoli per oggettivi.

Il problema, ancora una volta, è il gender data gap. E il legame tra intelligenza artificiale e i pregiudizi della società è molto più stretto di quanto si pensi.

Diffusa è la convinzione che le macchine siano prive di emozioni e, quindi, oggettive. La verità è che gli algoritmi imparano (male) e restituiscono un’immagine della realtà (falsata).  Nella storia recente molti sono i casi in cui l’IA ha agito mettendo in scena stereotipi. Nel 2014 Amazon aveva sviluppato un nuovo motore di reclutamento. Apparentemente molto efficace, rivedeva i curricula dei candidati evitando perdite di tempo all’uomo. C’era solo un problema: a parità di esperienza e competenze, le donne venivano scartate a vantaggio degli uomini. Un anno dopo l’azienda si è resa conto che il sistema non valutava in modo neutro i candidati e le candidate per il lavoro di sviluppatore di software e altri incarichi tecnici.

Questo era avvenuto perché il motore era stato addestrato osservando alcuni curriculum inviati all’azienda nell’arco di dieci anni. La maggior parte di questi proveniva da uomini. Di conseguenza, il sistema ha appreso che i candidati erano preferibili alle candidate. Ha penalizzato i curriculum che contenevano la parola “donne” o quelli che erano collegati a college femminili. Nel 2017 il team è stato sciolto perché il progetto non aveva ottenuto i risultati sperati.

Un altro noto caso è quello di Apple Cards. Due coniugi con dichiarazione dei redditi congiunta e un punteggio per credito migliore per la moglie rispetto al marito, hanno sperimentato sulla loro pelle il sessismo delle macchine. Nonostante i presupposti, al marito era stato assegnato un credito venti volte più alto che alla donna. «Non importa quale sia l’intento dei rappresentanti di Apple, importa l’algoritmo in cui hanno riposto la loro completa fiducia. E quello che fa è discriminare», aveva scritto su Twitter. Al post è seguita una denuncia. Non è stato un caso isolato, molte altre persone hanno subìto la stessa situazione.

Sebbene siano fatti eterogenei, il fil rouge è la mancanza di dati. Perché? È un problema di lunga data. L’immaginario collettivo è colmo di scienziati, politici, re, condottieri. Si parla di loro nei libri scolastici, ma non si analizzano le ragioni culturali e sociali per cui le gesta femminili sono marginali. La tradizione è radicata e viene perpetuata a scuola, in ambito religioso, in famiglia, in società.

Se alla base sussistono pregiudizi, visioni distorte, mancanze, falsi oggettivi, non dovremmo stupirci di incontrare sessismo nella scienza, nelle selezioni del personale, di essere esposte quotidianamente a pericoli che nemmeno conosciamo.

Tante sono le battaglie che si portano avanti oggi. Dal tentativo di colmare il gender pay gap alla valorizzazione di un linguaggio inclusivo. Forse però sarebbe necessario scavare più a fondo. Correggendo, prima di tutto, le tendenze diffuse che inducono a pensare che uomo e umanità siano sinonimi. Perché senza distinzioni di genere non sempre equivale a paritario.

Le newsletter de Linkiesta

X

Un altro formidabile modo di approfondire l’attualità politica, economica, culturale italiana e internazionale.

Iscriviti alle newsletter