La tecnogiustiziaCosa succede se le sentenze penali sono decise da un algoritmo

Anche le leggi sono messe alla prova dall’innovazione. Un fenomeno che si ripete nel tempo e suscita interrogativi etici profondi, che racconta Guido Scorza in “Processi al futuro” (Egea)

Sponsorizzato daEgea

Ma torniamo a Loomis, perché è lui il protagonista di questa vicenda. È un poco di buono da tempo noto alle forze dell’ordine ed è già stato arrestato una volta per violenza sessuale.

Mentre i media di tutto il mondo rilanciano la notizia delle dimissioni del papa, Eric Loomis, con accanto un avvocato d’ufficio si trova in un’aula del tribunale della Contea di La Crosse.

È seduto a sinistra guardando il giudice, mentre a destra c’è l’accusa, lo Stato, la Contea di La Crosse che gli contesta ben cinque capi di accusa che vanno dalla sparatoria al furto d’auto passando per la resistenza a pubblico ufficiale.

Loomis ascolta in silenzio, poi scambia due parole con il suo avvocato che gli spiega che le prove contro di lui sono schiaccianti e che, mentre il destino del papato, dopo le dimissioni del pontefice in carica, è incerto, il suo non lo è nemmeno un po’: è inesorabilmente destinato alla galera, si tratta solo di capire per quanto ci resterà.

La libertà è preziosa per tutti, anche per un balordo. Loomis capisce al volo, rinuncia a proclamarsi innocente e, tra i capi di accusa che gli vengono contestati, ne sceglie un paio, quelli in relazione ai quali non sembra davvero avere scampo.

Ammette di essere stato alla guida di un’auto rubata e di aver resistito all’arresto dandosi alla fuga. Nega, invece, di esser stato a bordo dell’auto al momento della sparatoria.

L’avvocato dell’accusa non ha voglia di perdere tempo dietro a lui. Per fortuna nella sparatoria nessuno si è fatto male, solo qualche vetro rotto. L’importante è togliere Loomis dalla strada e spedirlo al fresco per un po’.

Propone quindi alla difesa di Loomis un accordo: lui rinuncia agli altri tre capi di accusa, e l’imputato a difendersi sui due in relazione ai quali si è riconosciuto colpevole. Alla Corte stabilire la misura della pena.

Loomis e il suo avvocato si guardano un istante, giusto il tempo di dirsi in silenzio che il primo deve considerarsi fortunato e il secondo che non ha nessuna prospettiva migliore da offrirgli.

Per lui, d’altra parte, Loomis è solo un numero, uno delle decine di casi che l’aspettano quella mattina: ha ben poco da guadagnare nello spremersi le meningi a caccia di un lampo di genio e tanto da perdere a non correre a occuparsi del prossimo caso.

«Silenzio, entra la Corte» si dice nei film americani. E qui inizia per davvero una delle vicende giudiziarie destinate a passare alla storia come la prima – o almeno una delle prime – nelle quali si è affrontata una questione che negli anni che verranno è destinata a tenere banco in tribunale e fuori, negli Stati Uniti come in Europa e nel resto del mondo.

Algoritmi, intelligenza artificiale e big data, in quanto tecnologie rivoluzionarie, possono giocare un ruolo determinante anche nell’amministrazione della giustizia. Trasformeranno per sempre il modo in cui viviamo.

Ma questa consapevolezza è sufficiente a spalancare loro le porte dei tribunali e ad affidargli il compito di sostituirsi o affiancarsi ai giudici nell’applicazione delle leggi?

Quello nel quale un robot – a prescindere dalla sagoma che avrà – sederà accanto al giudice, o addirittura al suo posto, sarà un giorno di festa per la democrazia o il suo canto del cigno?

È più o meno giusta la giustizia amministrata da un algoritmo o con il suo aiuto rispetto a quella amministrata dai giudici? Sono domande che bisogna porsi.

Ma che c’entrano l’intelligenza artificiale, i robot e le questioni etiche legate alla giustizia del futuro con il processo a un balordo portato a giudizio in un anonimo Tribunale del Wisconsin? Più di quanto si potrebbe pensare oggi. Perché domani la correlazione potrebbe, al contrario, divenire naturale, ovvia, forse persino scontata.

Prima di validare l’accordo raggiunto tra l’accusa e la difesa e procedere alla determinazione della pena, il giudice vuole sapere chi è Mr. Loomis. Qual è il suo passato? Quanto è probabile che torni a violare la legge? Quanto è violento?

Il giudice si chiama Scott L. Horne, lavora a La Crosse da anni e proprio mentre il caso Loomis arriva sulla sua scrivania è in corsa per essere rieletto. Commettere un errore sarebbe fatale per la sua carriera. Lasciare troppo in fretta a piede libero un balordo capace di tornare immediatamente a delinquere potrebbe rivelarsi imperdonabile.

È per questo che chiede che la relazione sul rischio di recidiva sia accompagnata da un report predisposto attraverso un software che, da qualche anno, spopola nelle corti americane e che aiuta – o almeno dovrebbe aiutare – i giudici a valutare il rischio di recidiva degli imputati.

Questo software si chiama COMPAS ed è progettato, sviluppato e gestito dalla Northpointe Inc., oggi Equivant Inc., una società privata con sede nella Suite 101 a Canton, in Ohio.

Il nuovo sito della Equivant è interamente dedicato a software e sistemi di intelligenza artificiale dedicati al pianeta giustizia e il payoff che campeggia in home page chiarisce le ambizioni della società: «Tu prendi decisioni che contano. Noi realizziamo software per supportarle».

Scrollando lungo la stessa pagina, la Equivant rilancia: «Costruiamo il supporto decisionale in tutto ciò che facciamo perché ha senso. I nostri strumenti sono utilizzati a livello nazionale per prendere decisioni basate su prove, contribuendo a rimuovere i pregiudizi, fornendo ai professionisti della giustizia la ricerca e la motivazione di cui hanno bisogno per prendere decisioni informate e difendibili».

Il report elaborato da COMPAS nel caso di Loomis occupa un paio di fogli: una manciata di caratteri, qualche grafico a torta colorato, di quelli che generalmente popolano le analisi di mercato, e poi tre «barre» – anch’esse in perfetto stile business – con un punteggio da uno a dieci per sintetizzare tre giudizi sul rischio che l’imputato torni a commettere reati prima della sentenza definitiva, torni a commettere reati dopo la sentenza e torni a usare la violenza. E le tre barre, nel caso di Eric L. Loomis, sono colorate fino al numero dieci, ovvero rischio elevato in relazione a tutti e tre i fattori.

La peggiore delle valutazioni possibili per un imputato in attesa di giudizio. Come, per uno studente, il due nella pagella di fine anno, preludio ineludibile al più severo dei giudizi.

COMPAS non ha alcuna fiducia in Loomis. Non ha dubbi che, se libero, tornerebbe a delinquere. È – sempre stando a quanto sostiene l’algoritmo che guida il software – un caso disperato. Più resta dietro alle sbarre, più La Crosse sarà tranquilla. E ora silenzio, la parola alla Corte.

Mr. Loomis si alza in piedi. Parla il giudice Horne. «Lei è stato identificato attraverso il COMPAS assessment come un individuo che rappresenta un alto rischio per la società», scandisce guardandolo dritto negli occhi con un’aria di disapprovazione non solo per ciò che ha appena fatto ma anche e soprattutto per ciò che farà o, almeno, potrebbe fare stando all’algoritmo che rappresenta il cuore del COMPAS.

Per chi si fosse trovato in quel momento in quell’aula, sarebbe stato difficile non ripescare dalla memoria una delle scene più famose di una pellicola di fantascienza frattanto divenuta una sorta di docu-film di straordinaria attualità.

Parliamo di “Minority Report”, ambientato in un 2054 evidentemente arrivato anzitempo. «Signor Marks, in nome della sezione precrimine di Washington DC la dichiaro in arresto per il futuro omicidio di Sarah Marks e Donald Dubin che avrebbe dovuto avere luogo oggi 22 aprile alle ore 8 e 04 minuti.» Una scena indimenticabile.

Quando l’abbiamo vista, la prima volta, la maggior parte di noi ha sorriso con l’aria di chi dice «… ma guarda cosa vanno a inventarsi pur di portarci al cinema».

E magari l’avrà pensato anche Eric Loomis che mai, probabilmente, avrebbe immaginato che un giorno, appena dieci anni dopo l’uscita del film, si sarebbe trovato davanti a un giudice che gli avrebbe indirizzato parole non troppo diverse da quelle riservate al signor Marks dalla squadra precrimine della polizia di Washington DC. Eppure stava accadendo.

Il giudice stava per infliggergli una condanna esemplare non solo per quanto aveva appena fatto ma anche per quanto avrebbe potuto fare in futuro, specie se lasciato a piede libero.

E poi la pronuncia della sentenza: sei anni di prigione e sei di libertà condizionata. La pena massima per i due reati dei quali Loomis si è riconosciuto colpevole è di diciassette anni e mezzo, ma quella che la Corte gli infligge è, comunque, una condanna severa. Forse, se avesse saputo che sarebbe andata a finire così, non avrebbe patteggiato.

da “Processi al futuro. Quando la tecnologia ha incrociato il diritto”, di Guido Scorza, Egea, 2020, 14 euro

Entra nel club de Linkiesta

Il nostro giornale è gratuito e accessibile a tutti, ma per mantenere l’indipendenza abbiamo anche bisogno dell’aiuto dei lettori. Siamo sicuri che arriverà perché chi ci legge sa che un giornale d’opinione è un ingrediente necessario per una società adulta.

Se credi che Linkiesta e le altre testate che abbiamo lanciato, EuropeaGastronomika e la newsletter Corona Economy, siano uno strumento utile, questo è il momento di darci una mano. 

Entra nel Club degli amici de Linkiesta e grazie comunque.

Sostieni Linkiesta