Il caso, avvenuto a marzo dell’anno scorso secondo un rapporto dell’ONU, sarebbe il primo registrato nella storia senza l’intervento esplicito di un essere umano ad azionarlo. E le conseguenze mettono paura.
Un recente rapporto delle Nazioni Unite ha rivelato che a marzo dello scorso anno, in Libia, un drone autonomo potrebbe aver dato la caccia e attaccato degli umani senza che ci fosse un ordine esplicito impartito da una persona.
Il rapporto al Consiglio di sicurezza delle Nazioni Unite afferma che il 27 marzo 2020 il primo ministro libico Fayez al-Sarraj ha ordinato l’operazione “Peace Storm”, che ha utilizzato veicoli aerei da combattimento senza equipaggio (denominati UCAV) contro le forze affiliate di Haftar. I droni sono stati usati in combattimento per anni, ma ciò che ha reso questo attacco senza precedenti è che operavano in maniera completamente autonoma, senza l’intervento umano.
Nel rapporto si fa menzione di “sistemi letali di armi autonome” che sono “stati programmati per attaccare obiettivi senza richiedere connettività dati tra l’operatore e le armi stesse”.
L’attacco è stato portato a termine da un drone “Kargu”, drone d’attacco ad ala rotante progettato dall’azienda turca STM per operazioni di guerra asimmetrica o antiterrorismo. Secondo i produttori, Kargu “può essere efficacemente utilizzato contro bersagli statici o in movimento attraverso le sue capacità di elaborazione delle immagini e in tempo reale e algoritmi di apprendimento automatico incorporati sulla piattaforma”. In un angosciante video promozionale si vede il drone che prende di mira dei manichini in un campo, prima di tuffarsi su di loro e far esplodere una carica esplosiva.
Non sarebbe la prima volta che un drone uccide un uomo: il primo caso noto risale al luglio 2016, quando la polizia di Dallas si servì di un robot per eliminare un cecchino, in un’operazione che creò un dibattito etico rilevante in seno alla polizia statunitense. In questo caso sarebbe però la prima volta che il drone “killer” opera nella fase finale senza un comando esplicito di un essere umano.
“Le unità non erano né addestrate né motivate a difendersi dall’uso efficace di questa nuova tecnologia e di solito si ritiravano disordinatamente”, si legge ancora nel rapporto dell’ONU. “Una volta in ritirata, sono stati soggetti a continui attacchi da parte dei veicoli aerei da combattimento senza equipaggio e dei letali sistemi di armi autonome, che si sono rivelati una combinazione molto efficace“.
Il rapporto non specifica quindi esplicitamente se ci siano state vittime o morti legate all’attacco, sebbene si evidenzi come i droni siano stati molto efficaci nell’aiutare a infliggere “perdite significative“. È quindi ragionevole dedurre che per la prima volta un essere umano sia stato attaccato o ucciso da un drone gestito da un algoritmo di apprendimento automatico. Un’eventualità che rappresenterebbe un vero e proprio Rubicone nell’utilizzo e nella concezione dell’intelligenza artificiale, e che rinforza le preoccupazioni già palesate in altri campi, come in quello medico durante il picco della pandemia, dove si stima che in Cina le decisioni su quali pazienti trattare fossero già delegate a un’IA che sceglieva in base alle probabilità di sopravvivenza dei malati.
“Ci sono seri dubbi sul fatto che armi completamente autonome siano in grado di soddisfare gli standard del diritto umanitario internazionale, comprese le regole di distinzione, proporzionalità e necessità militare, mentre è probabile che minaccerebbero il diritto fondamentale alla vita e il principio della dignità umana”, afferma quasi pleonasticamente lo Human Rights Watch, che chiede poi “un divieto preventivo dello sviluppo, della produzione e dell’uso di armi completamente autonome”.
Il precedente segnato dal caso libico apre scenari potenzialmente devastanti, su cui aleggia lo spettro della MAD (Mutual Assured Destruction) che richiama gli anni della Guerra Fredda. Solo che in questo caso, rispetto alla guerra di nervi dei generali sovietici e americani, rischiamo di parlare di una potenziale escalation di decisioni automatizzate sulla base di algoritmi imperscrutabili, la cui tecnologia è facilmente acquistabile a basso costo.
Tra le altre preoccupazioni, anche ammessa e non concessa la buona fede degli sviluppatori, c’è il fatto che gli algoritmi di intelligenza artificiale utilizzati dai robot potrebbero non essere abbastanza robusti o essere addestrati su set di dati con bias al loro interno. Oltre ad essere aperti agli errori e possibilità di hacking (come nel caso della Tesla indotta a sterzare fuori strada), ci sono innumerevoli esempi di bias, o pregiudizi, all’interno della tecnologia di apprendimento automatico, dal riconoscimento facciale che non riconosce i toni della pelle non bianchi, alle fotocamere che suggeriscono agli asiatici di smettere di strizzare gli occhi, ai distributori di sapone razzisti che non erogano il sapone alle persone di colore fino alle auto a guida autonoma che hanno maggiori probabilità di investirti se non sei di razza caucasica.
L’eventualità di delegare a intelligenze artificiali decisioni di vita o di morte ora anche in ambito bellico rischia di innescare un pericolosissimo dilemma del prigioniero, in cui la condanna pur compatta della comunità scientifica può essere vanificata da giochi geopolitici tra le superpotenze – e non solo – mondiali.
FILIPPO LUBRANO – Consulente di Innovazione e Internazionalizzazione – www.filippolubrano.it