Il dilemma del carrello, per chi non lo conoscesse, è uno dei problemi più annosi della filosofia e delle scienze cognitive. La sua formulazione principale, coniata dalla filosofa Philippa Foot, più o meno è così: un tram ferroviario che ha perduto il controllo. Il guidatore non può frenare ma può solo azionare lo scambio tra i binari. A un certo punto si trova di fronte a un bivio: da un lato, ci sono cinque persone sul binario, e dall’altro ce n’è solo una. In entrambi i casi, le persone moriranno nell’impatto. Cosa deve fare il guidatore? Azionare lo scambio? E quale binario scegliere?
La questione può sembrare ovvia: certo, deve azionare lo scambio e andare sul binario dove c’è una sola persona. Ma non è così semplice. Se il guidatore interviene, a quanto pare, assume su di sé una scelta morale (cinque è meglio di uno, più o meno come due è megl che one), che non è così ovvia (la vita non ha forse un valore incommensurabile?), ma al tempo stesso si può dire che il non-intervento è immorale, dal momento che la scelta dipende anche dalla circostanza, e la semplice presenza determina i limiti delle azioni, che siano più o meno morali.
Esistono delle varianti. C’è sempre un tram impazzito, ma stavolta bisogna immaginare di essere su un ponte, sopra la ferrovia. L’osservatore vede che il tram sta per colpire cinque persone, ma può impedire che questo succeda gettando sui binari una persona grassa che si trova al suo fianco. È giusto? È morale? Qui la faccenda è più complicata (aldilà delle difficoltà tecniche di sollevare un grassone e scaraventarlo sotto un ponte), perché la scelta morale che uno si assume è molto più complessa: implica uccidere, di proposito, una persona.
Un’altra variante consiste nell’immaginare lo stesso scenario, ma al posto del grassone generico c’è un grassone “cattivo”, cioè una persona malvagia. Cambia qualcosa? E se sì, cosa?
Tutto questo per introdurre un argomento molto spinoso, tornato di moda con l’arrivo della Google Car, cioè automobili che si autoguidano, senza conducenti ma solo passeggeri, in cui tutto è regolato da un robot. La domanda è: cosa farà una Google Car in caso di incidente imminente? Cosa farà se dovrà scegliere tra colpire cinque pedoni o salvare la vita del conducente? E cosa farà se dovrà scegliere tra la vita di un pedone e quella del conducente? Detto in altre parole: siete pronti a lasciare tutto in mano a un robot che potrebbe decidere di sacrificare la vostra vita?
Le situazioni, poi, come sottolinea Jean-François Bonnefon della Toulouse School of Economics, che ha studiato la questione con sondaggi d’opinione tra i cittadini americani, possono essere molto diverse. “In generale, la maggior parte delle persone intervistate preferisce il sacrificio di un passeggero anziché del pedone”, dice. Ma non quando devono immaginare “di essere loro il passeggero”. In quel caso, i risultati cambiano in modo drastico.
Bisogna anche pensare, continua Bonnefon, che le situazioni sulla strada sono molto variegate. “È meglio che un veicolo eviti un motociclista e vada a sbattere contro un muro, visto che le probabilità di sopravvivenza sono più alte per il passeggero e non per il pilota? Vale lo stesso se a bordo ci sono dei bambini, visto che la loro vita è più lunga?” Difficile.
Anche perché non finisce qui: l’algoritmo morale finisce in un’ottica di mercato. “E se una fabbrica offre diverse versioni di questo algoritmo, e l’acquirente può scegliere, in piena coscienza, a chi va la colpa? All’acquirente? Al commerciante?”, e più in generale: è giusto che esistano algoritmi morali diversi installati sulle automobili?
Per chi avesse mal di testa, sappia che la questione è ancora aperta. Chi propone auto che si guidano da sole, dovrà tenere conto di tutte queste varianti. Non è necessario che scrivano trattati filosofici: anche solo da un’ottica di mercato, sarà difficile convincere le persone ad acquistare un mezzo che può decidere la tua morte, o farti diventare un assassino.