La questione di fiduciaPerché gli algoritmi che danno prestazioni migliori sono anche quelli più difficili da capire

I modelli e le metodologie di analisi hanno fatto passi da gigante negli ultimi anni ma è sempre più difficile interpretare le ragioni delle previsioni che elaborano. Come spiegano Emanuele Borgonovo e Luca Molteni in “Quando ai manager danno i numeri” (Egea), di fronte alla complessità, cresce la naturale diffidenza dell’uomo. E questo è un problema

Sponsorizzato daEgea
FRANCOIS GUILLOT / AFP

L’aumento delle prestazioni delle macchine è dovuto al miglioramento dei modelli e delle metodologie di analisi, alla presenza di dati sempre migliori e a una maggiore potenza di calcolo, soprattutto grazie all’uso delle GPU e del computing parallelo.

Ma questo aumento delle prestazioni non è a costo zero, di solito questi modelli ad alte performance predittive sono caratterizzati da una mancanza di interpretabilità e trasparenza nelle relazioni tra input e output che portano a specifiche previsioni.

Tra gli altri, Breiman (2001) ha enfatizzato in passato il trade-off tra prestazioni e interpretabilità. Da lungo tempo è pertanto opinione comune che i modelli più semplici siano più facili da interpretare ma al costo di prestazioni predittive inferiori (si veda anche Rudin, 2019).

Negli anni più recenti, uno degli sforzi dei ricercatori che lavorano sullo sviluppo di modelli avanzati, è stato rivolto a indebolire questa affermazione, sviluppando metodi che mantengano elevate performance predittive ma che forniscano maggiore interpretabilità.

Occorre sottolineare che la rilevanza degli aspetti di interpretabilità dei modelli non è omogenea nelle diverse applicazioni. Se si pensa a un algoritmo di riconoscimento delle immagini o del parlato o anche in alcuni compiti come giocare a Go, il punto chiave è la performance e l’interpretabilità è un obiettivo minore.

Ma ci sono altre applicazioni in cui è inevitabile cercare un equilibrio tra interpretabilità e capacità predittiva e sicuramente la maggioranza delle applicazioni manageriali ricade tra queste: si pensi per esempio alle problematiche di studio della propensione ad acquistare un prodotto specifico da parte di un cliente, al tema della loyalty della clientela (churn/attrition) o della segmentazione comportamentale della clientela.

Tutte queste applicazioni richiedono che l’analista sia in grado di fornire un’interpretazione dei risultati sia per comunicare al management i risultati, sia per essere in grado di implementare le azioni più opportune per raggiungere gli obiettivi di miglioramento delle condizioni del business che sono la premessa all’idea stessa di applicare un modello di machine learning.

Inoltre l’interpretabilità di un modello può anche rivelare le sue debolezze, fornendo per esempio una spiegazione del perché il modello fallisca o addirittura mostrando che la decisione suggerita dal modello è matematicamente corretta, ma basata su dati imprecisi o misleading. Conoscere a fondo queste debolezze dell’algoritmo è il primo passo per cercare di migliorare il modello.

L’interpretabilità va anche di pari passo con la fiducia. Un decisore non può fidarsi ciecamente delle previsioni quando non ha assolutamente idea di come sono stati ottenuti i risultati. Questo è particolarmente vero in campi delicati come la medicina, dove è fondamentale sapere perché una certa diagnosi è stata fatta dalla macchina. Un medico deve verificare l’output della black-box, in modo che capisca a fondo le ragioni di un certo output e possa con fiducia seguire il suggerimento della macchina.

Le condizioni non sono molto diverse in ambito manageriale, in quanto la condivisione delle decisioni e delle loro motivazioni è quasi sempre un elemento fondamentale nel processo decisionale aziendale.

Ancora, e questo si collega al tema della fiducia, si deve cercare di disporre (e a tutt’oggi non siamo vicini) di un’adeguata quantificazione dell’incertezza. Anche questo aspetto è particolarmente importante in settori come la medicina, come sottolineato da Begoli, Bhattacharya e Kusnezov (2019).

Gli autori evidenziano che queste moderne scatole nere basate sull’analisi dei dati, e in particolare l’IA medica, hanno bisogno di sviluppare un principio di quantificazione e disciplina dell’incertezza (Uncertainty Quantification) rigorosa.

In tutto questo, non sono poi trascurabili i temi legali. Con il ruolo crescente degli algoritmi di IA arriva la richiesta di regolazione. I decisori sono spesso obbligati a giustificare le decisioni prese, soprattutto in in settori delicati, quali, come indicavamo, quello bancario o penale.

È noto che gli algoritmi possano apprendere regole o usino dati che nascondano una qualche forma di distorsione, per il modo in cui sono stati raccolti, quindi persone con caratteristiche specifiche potrebbero avere una probabilità molto minore di ottenere un prestito o più alta di essere condannate (Rudin, 2019).

L’Unione Europea ha in questo senso adottato il “diritto alla spiegazione”, un nuovo regolamento che consente agli utenti di chiedere spiegazioni sulle decisioni prese in con il supporto dell’intelligenza artificiale e l’interpretabilità dei modelli gioca un ruolo estremamente rilevante.

da “Quando ai manager danno i numeri. Come prendere decisioni nell’era dei Big Data”, di Emanuele Borgonovo e Luca Molteni, Egea, 2020

Entra nel club de Linkiesta

Il nostro giornale è gratuito e accessibile a tutti, ma per mantenere l’indipendenza abbiamo anche bisogno dell’aiuto dei lettori. Siamo sicuri che arriverà perché chi ci legge sa che un giornale d’opinione è un ingrediente necessario per una società adulta.

Se credi che Linkiesta e le altre testate che abbiamo lanciato, EuropeaGastronomika e la newsletter Corona Economy, siano uno strumento utile, questo è il momento di darci una mano. 

Entra nel Club degli amici de Linkiesta e grazie comunque.

Sostieni Linkiesta