Simbolismo digitale Come le decisioni artificiali impattano sulle decisioni umane

Come spiegano Nicola Lattanzi e Andrea Vespucci in “Digital sapiens” (Castelvecchi), con l’avvento e la diffusione dell’automazione è necessario comprendere fin dove può spingersi il ragionamento della macchina, tra matematica e filosofia, linearità e probabilità

AP/Lapresse

L’IA simbolica può produrre decisioni re­lative alla prova o confutazione di un teorema o di un predicato, o all’organizzazione della conoscenza e delle relazioni tra concetti se­condo regole esplicite. La domanda è: perché si dovrebbe utilizza­re una IA per questo? Per esempio, per dimostrare un teorema non basterebbero forse carta e penna? Ebbene, in questo caso, il risultato dell’IA è in grado di perfe­zionare le dimostrazioni umane. Per esempio, è possibile, grazie all’utilizzo di un’IA simbolica dotata di sufficiente potere espressi­vo – ossia capacità di codificare differenti linguaggi logici di livel­lo superiore –, trovare prove molto più brevi, agili, rapide, e quindi meno dispendiose dal punto di vista computazionale (ed energeti­co) per problemi particolarmente complessi, come mostrato dall’ar­ticolo Who Finds the Short Proof?, citato in bibliografia. Ma l’im­patto delle decisioni della macchina simbolica può andare oltre il campo della matematica. Un esempio è dato dai risultati di una branca di ricerca relativa­mente nuova, a metà strada tra filosofia, logica e matematica, chia­mata «metafisica computazionale», e inaugurata nel 2007 da Bran­den Fitelson ed Edward Zalta.

La metafisica computazionale si occupa di utilizzare l’Intelligen­za artificiale simbolica per esplorare ragionamenti filosofici e an­che teologici. Questi ragionamenti sono «metafisici» perché si ri­feriscono a «oggetti astratti» – ossia oggetti che non esistono nella realtà fisica, per esempio, oggetti matematici (almeno secondo alcu­ne interpretazioni filosofiche della matematica) e, appunto, oggetti tipici della ricerca metafisica come la causa prima, proprietà gene­rali come «essere rosso» o «avere un’estensione», e vari concetti di Dio.

La disciplina si è anche occupata di ragionamenti modali, os­sia ragionamenti che hanno a che fare con la possibilità e la neces­sità – per esempio, proposizioni come «domani la battaglia navale avrà luogo» o «è possibile che domani piova». Tutti questi ragionamenti possono essere esplorati in un conte­sto di ragionamento automatizzato proprio alla luce della capaci­tà dell’IA simbolica di codificare in modo esplicito le conoscenze. Previa traduzione dei ragionamenti dal linguaggio naturale alla sin­tassi simbolica, l’IA può operare su questi ragionamenti e verifica­re (o meno) la loro validità.

(…)

Anche il semplice sforzo di tradurre un ragionamento filosofi­co nella sintassi di un’IA simbolica implica un approfondimento e una disamina critica della struttura del ragionamento stesso, chia­rendo ridondanze, inutili complessità, o ambiguità nel ragionamen­to di partenza. Nuovamente, ritorna alla mente un’eco della visione di Leibniz di un calculus ratiocinator: poter risolvere un problema filosofico come si risolve un problema matematico.

Ecco, quindi, un esempio di come le decisioni dell’IA simbolica impattano sulle nostre decisioni: le decisioni artificiali simboliche ci aiutano a comprendere meglio le relazioni tra concetti e tra co­noscenze, e la validità o non validità di certi nostri ragionamenti e quindi di certe nostre conoscenze – da prove matematiche a ragio­namenti alla base di credenze complesse – proprio perché la deci­sione simbolica si basa su regole che noi conosciamo e che abbia­mo fornito alla macchina.

Sulla carta è facile far funzionare un ragionamento, soprattut­to un ragionamento che non è formalizzato in modo matematico come i ragionamenti filosofici o i ragionamenti su cui basiamo le nostre credenze. Ma il confronto con la decisione artificiale simbo­lica rivela ogni forzatura, ogni «aggiustamento ad hoc», e chiarisce se ci sono passaggi superflui o incoerenti. L’esplorazione di argo­menti informali è un contributo significativo alla chiarezza, lineari­tà e validità dei nostri ragionamenti e quindi delle nostre decisioni. Questo è particolarmente importante nel confronto con le risposte di un’intelligenza artificiale come ChatGpt.

D’altro canto, le decisioni artificiali sub-simboliche possono ave­re un impatto più complesso sulle nostre decisioni. Immaginiamo un medico che si affidi a un sistema di deep learning per stabili­re se un neo è un melanoma, un cancro maligno. Se la decisione dell’IA sull’immagine del neo del paziente è probabilistica, altret­tanto lo sarà la diagnosi.

Inoltre, come detto, può essere difficile sa­pere come l’IA sia arrivata a quella decisione alla luce della non-li­nearità del processo decisionale della macchina: è davvero sicuro affidarci a una decisione senza avere una spiegazione del perché la macchina abbia preso quella decisione?

“Digital sapiens. Decidere con l’intelligenza artificiale” di Andrea Vestrucci e Nicola Lattanzi, Castelvecchi editore, 150 pp., € 18,50 

© 2024 Lit edizioni s.a.s. per gentile concessione

X