Calcoli di penaCosì gli algoritmi sono entrati nel mondo della giustizia (per restarci)

Nicoletta F. Prandi, nel suo ultimo libro, spiega che il digitale condiziona anche campi che si immaginavano distanti, se non immuni, alla sua presenza

di Jesse Collins, da Unsplash

Conoscete Equivant? È l’Amazon della giustizia, negli Stati Uniti offre servizi che coprono l’intera filiera giudiziaria, tutto ciò che esiste a monte e a valle di un processo.

Il catalogo dei prodotti è diversificato. Il più interessante è COMPAS, acronimo di Correctional Offender Management Profiling for Alternative Sanctions, ed è presentato così: «uno strumento flessibile, veloce ed efficace […] per ottimizzare il lavoro di giudici e magistrati». COMPAS serve a calcolare le probabilità: quale probabilità esiste che un condannato reiteri un crimine, quale che rispetti i domiciliari, quale che sia adatto a una pena alternativa al carcere.

Un Lombroso 4.0, capace di ridurre a un numero, una percentuale, la propensione alla reiterazione dei reati. Per farlo si basa soprattutto su due cose. La prima è l’analisi dei tratti somatici e dei comportamenti assunti dall’imputato nell’aula giudiziaria. La seconda è la compilazione di un questionario con 173 domande, alcune delle quali piuttosto suggestive. Quante volte hai traslocato nell’ultimo anno? Quanti dei tuoi amici sono stati condannati? Nel tuo quartiere, quanti dei tuoi vicini sono stati vittime di crimini? A scuola sei mai stato sospeso? Ti senti mai annoiato?

COMPAS è un segreto industriale di un’azienda privata, come sancito dalla sentenza della Corte Suprema del Wisconsin depositata il 13 luglio 2016, caso n. 2015AP157CR. Cos’era successo? Eric Looms, condannato a sei anni di carcere da un giudice che aveva usato COMPAS per stabilire la pena, aveva fatto appello perché la sua difesa non aveva potuto contestare la validità scientifica del fattore di rischio calcolato, essendo il software proprietario e il codice sorgente coperto da segreto industriale.

Benvenuti nel magico mondo del robot-lawyering, gli algoritmi al servizio della giustizia, la nemesi stessa dell’IA: chi, meglio di lei, può infatti indicarci la strada per assumere una decisione giusta?

Quando una sentenza è considerata giusta? Ipotizziamo che due gemelli, in Italia, commettano lo stesso tipo di reato, in due città diverse. Che probabilità avrebbero di vedere concluso il proprio iter giudiziario con la stessa identica sentenza? La risposta viene da sé: nessuna. È un’evidenza che, però, accettiamo con rassegnazione. La giustizia, così come la medicina, non è una scienza esatta. Duole ricordarlo ma è così. I giudici sono esseri umani e, in quanto tali, fallibili. Eppure nella loro imperfezione, così come in quella di tutti gli operatori impiegati a vario titolo nel settore giudiziario, risiede quel senso del giusto cui si ispira l’atto stesso del giudicare.

È in maniera umana che, infatti, un giudice coglie gli aspetti che una macchina, oggi, potrebbe non ancora valutare: le sfumature della personalità, dettagli di tipo analogico, come la prossemica, l’effetto deterrente che eserciterebbe la pena sulla persona, le conseguenze sul pensiero degli altri criminali, il senso di lavorare per un giusto compromesso tra applicazione della legge e unicità del caso. I sistemi giudiziari in tutto il mondo oscillano tra questi due estremi e attribuiscono più importanza al codice di leggi o alla discrezionalità del giudizio (giudice e/o giuria).

I nostri gemelli, dunque, andrebbero incontro a pene e sentenze diverse tra loro, proprio in virtù di questa fallibilità così umana che, nel caso della giustizia, diventa però compassione, in senso etimologico, verso il giudicato. Ed ecco perché, quando ci si interroga sulle opportunità offerte dall’IA al sistema della giustizia, «non si tratta di scegliere tra un algoritmo difettoso e un sistema perfetto immaginario [non esistendo, nei fatti, un sistema perfetto, NdA]. L’unico paragone sensato è quello tra l’algoritmo e ciò che rimarrebbe se non ci fosse». Perché gli algoritmi, con tutti i loro difetti, possono contribuire all’esercizio di una giustizia più giusta, eccome.

Poco tempo fa ho realizzato un videoreportage sulla sperimentazione di body cam da parte della Polizia Locale di Parma, avviata dal Comando nel gennaio 2021. Ho scoperto che esistono vantaggi che fino ad allora non avevo considerato. Immaginate di essere fermati da un agente con marcato accento del Sud. Siete fermi nell’abitacolo della vostra auto e vedete dal finestrino il faccione di un agente che vi intima di assecondarlo puntandovi il suo indice dritto in volto. Il comandante della Polizia Locale di Parma, il dottor Roberto Riva Cambrino, mi ha spiegato che il video registrato dalla body cam indossata da quell’agente ha potuto svelare al giudice informazioni preziose sul contesto in cui è avvenuto il fermo, evidenziando come una gestualità particolarmente accentuata possa essere considerata un’attitudine tipica della modalità di espressione meridionale: nessun intento intimidatorio da parte dell’agente, dunque, ma anche comprensione per la persona fermata che avrebbe – giustamente – potuto fraintendere gli atteggiamenti del poliziotto. Informazioni che, senza l’impiego della tecnologia, sarebbero svanite nel nulla sottraendo frammenti di realtà alla verità giudiziaria.

I primi studi per misurare la fallibilità umana del giudizio in ambito legale sono stati condotti a partire dal 1920 e alcuni, svolti in tempi più recenti, hanno dato risultati sorprendenti.

Nel 1977 un gruppo di ricercatori americani inventò a tavolino dei casi ipotetici, mai avvenuti, e li sottopose a 47 giudici distrettuali della Virginia chiedendo come si sarebbero espressi. Uno dei casi era questo: L’imputata è una donna di diciott’anni, senza precedenti penali, arrestata per possesso di marijuana insieme al fidanzato e ad altre sette persone. La marijuana non le è stata trovata addosso ma era comunque in considerevole quantità. La donna è una studentessa del ceto medio e non ha mostrato atteggiamenti di ribellione durante l’arresto. I risultati dell’esperimento furono incredibili.

Le sentenze fittizie emesse virtualmente dai giudici differivano enormemente una dall’altra. L’imputata risultò non colpevole per 29 giudici, colpevole per gli altri 18. Di questi solo tre chiesero addirittura una pena detentiva, gli altri optarono per soluzioni intermedie come una multa o una pena con la condizionale. Quanto sarebbe stato giusto che quella ragazza, seppure inesistente, venisse giudicata da giudici imperfetti? È quello che accade nella realtà, però. E, ciliegina sulla torta, i giudici contraddicono se stessi anche quando sono chiamati a esprimere un giudizio su casi che hanno già giudicato in passato.

Nel 2001 venne richiesto a 81 giudici del Regno Unito di esprimersi sulla concessione della libertà su cauzione a una serie di imputati (inventati). I giudici non sapevano, però, che i casi erano stati presi da casi realmente giudicati in passato da loro stessi, erano solo stati cambiati il nome e il cognome, a volte il genere, delle persone, così che non se ne accorgessero. Quasi nessun giudice emise lo stesso verdetto. Inoltre, lo studio rivelò che i giudici avrebbero dimostrato maggiore coerenza con le proprie decisioni se avessero letteralmente tirato a sorte.

Sarebbe improprio condannare ex ante i vantaggi che un uso appropriato degli algoritmi potrebbe apportare al sistema della giustizia, se li consideriamo come una specie di bilancino correttivo: a parità di circostanze l’algoritmo (che impiega il metodo delle foreste casuali) fornisce sempre la stessa identica risposta e, anche in termini di previsioni, gli algoritmi si dimostrano molto più capaci degli esseri umani.

Eppure è bene considerare le potenziali derive che un impiego distorto e dissennato dell’IA può generare: la segretezza del meccanismo di funzionamento degli algoritmi, come abbiamo visto, è la più drammatica. E poi c’è la grande questione dei pregiudizi razziali che l’IA sembra aver già sviluppato. Per fortuna non è ancora toccato al nostro Paese. Anche se, a piccoli passi e dalla porta di servizio, gli algoritmi hanno già fatto ingresso nell’ambito della giustizia amministrativa.

di “Immuni alla verità. Quello che (non) dobbiamo sapere sul potere digitale”, di Nicoletta F. Prandi, Guerini e Associati, 2022, pagine 160, euro 18