L’IA simbolica può produrre decisioni relative alla prova o confutazione di un teorema o di un predicato, o all’organizzazione della conoscenza e delle relazioni tra concetti secondo regole esplicite. La domanda è: perché si dovrebbe utilizzare una IA per questo? Per esempio, per dimostrare un teorema non basterebbero forse carta e penna? Ebbene, in questo caso, il risultato dell’IA è in grado di perfezionare le dimostrazioni umane. Per esempio, è possibile, grazie all’utilizzo di un’IA simbolica dotata di sufficiente potere espressivo – ossia capacità di codificare differenti linguaggi logici di livello superiore –, trovare prove molto più brevi, agili, rapide, e quindi meno dispendiose dal punto di vista computazionale (ed energetico) per problemi particolarmente complessi, come mostrato dall’articolo Who Finds the Short Proof?, citato in bibliografia. Ma l’impatto delle decisioni della macchina simbolica può andare oltre il campo della matematica. Un esempio è dato dai risultati di una branca di ricerca relativamente nuova, a metà strada tra filosofia, logica e matematica, chiamata «metafisica computazionale», e inaugurata nel 2007 da Branden Fitelson ed Edward Zalta.
La metafisica computazionale si occupa di utilizzare l’Intelligenza artificiale simbolica per esplorare ragionamenti filosofici e anche teologici. Questi ragionamenti sono «metafisici» perché si riferiscono a «oggetti astratti» – ossia oggetti che non esistono nella realtà fisica, per esempio, oggetti matematici (almeno secondo alcune interpretazioni filosofiche della matematica) e, appunto, oggetti tipici della ricerca metafisica come la causa prima, proprietà generali come «essere rosso» o «avere un’estensione», e vari concetti di Dio.
La disciplina si è anche occupata di ragionamenti modali, ossia ragionamenti che hanno a che fare con la possibilità e la necessità – per esempio, proposizioni come «domani la battaglia navale avrà luogo» o «è possibile che domani piova». Tutti questi ragionamenti possono essere esplorati in un contesto di ragionamento automatizzato proprio alla luce della capacità dell’IA simbolica di codificare in modo esplicito le conoscenze. Previa traduzione dei ragionamenti dal linguaggio naturale alla sintassi simbolica, l’IA può operare su questi ragionamenti e verificare (o meno) la loro validità.
(…)
Anche il semplice sforzo di tradurre un ragionamento filosofico nella sintassi di un’IA simbolica implica un approfondimento e una disamina critica della struttura del ragionamento stesso, chiarendo ridondanze, inutili complessità, o ambiguità nel ragionamento di partenza. Nuovamente, ritorna alla mente un’eco della visione di Leibniz di un calculus ratiocinator: poter risolvere un problema filosofico come si risolve un problema matematico.
Ecco, quindi, un esempio di come le decisioni dell’IA simbolica impattano sulle nostre decisioni: le decisioni artificiali simboliche ci aiutano a comprendere meglio le relazioni tra concetti e tra conoscenze, e la validità o non validità di certi nostri ragionamenti e quindi di certe nostre conoscenze – da prove matematiche a ragionamenti alla base di credenze complesse – proprio perché la decisione simbolica si basa su regole che noi conosciamo e che abbiamo fornito alla macchina.
Sulla carta è facile far funzionare un ragionamento, soprattutto un ragionamento che non è formalizzato in modo matematico come i ragionamenti filosofici o i ragionamenti su cui basiamo le nostre credenze. Ma il confronto con la decisione artificiale simbolica rivela ogni forzatura, ogni «aggiustamento ad hoc», e chiarisce se ci sono passaggi superflui o incoerenti. L’esplorazione di argomenti informali è un contributo significativo alla chiarezza, linearità e validità dei nostri ragionamenti e quindi delle nostre decisioni. Questo è particolarmente importante nel confronto con le risposte di un’intelligenza artificiale come ChatGpt.
D’altro canto, le decisioni artificiali sub-simboliche possono avere un impatto più complesso sulle nostre decisioni. Immaginiamo un medico che si affidi a un sistema di deep learning per stabilire se un neo è un melanoma, un cancro maligno. Se la decisione dell’IA sull’immagine del neo del paziente è probabilistica, altrettanto lo sarà la diagnosi.
Inoltre, come detto, può essere difficile sapere come l’IA sia arrivata a quella decisione alla luce della non-linearità del processo decisionale della macchina: è davvero sicuro affidarci a una decisione senza avere una spiegazione del perché la macchina abbia preso quella decisione?
© 2024 Lit edizioni s.a.s. per gentile concessione