Aiuto, il Pentagono vuole le big della Silicon Valley in guerra con lui

Google ha iniziato a collaborare a un progetto “solo per scopi non offensivi”. Ma i dipendenti non ci stanno, e protestano. Eppure, la corsa alle armi con intelligenza artificiale sembra già partita: una tecnologia che, secondo molti, potrebbe avere esiti catastrofici

Google_Linkiesta

L'amministratore delegato di Google, Sundar Pichai

JUSTIN SULLIVAN / GETTY IMAGES NORTH AMERICA / AFP

27 Aprile Apr 2018 1230 27 aprile 2018 27 Aprile 2018 - 12:30

Il cibo in scatola, il Gps, il forno a microonde. Sono molte le scoperte dovute all’industria bellica, soprattutto nelle due guerre mondiali. Ora, però, il paradigma sembra essersi rovesciato. Ormai, sono le aziende tecnologiche a creare e innovare. È questo il motivo per cui il Pentagono vuole collaborare con le aziende della Silicon Valley. A fare da apripista ci ha pensato Google, che assieme al dipartimento della Difesa ha iniziato a lavorare al Project Maven. Cos’è? Un progetto che, tramite l’utilizzo dell’intelligenza artificiale, ha l’obiettivo di “localizzare, classificare e tracciare oggetti” in video registrati dai droni. Google ha puntualizzato che la tecnologia che sta aiutando a sviluppare è solo per “scopi non offensivi”. Il Pentagono fa sapere che il progetto è pensato per il riconoscimento di oggetti che gli Usa hanno bisogno di scovare nella lotta contro lo Stato Islamico in zone come la Siria o l’Iraq.

Ma gli Usa non possono tentennare troppo. La Cina ha già lanciato la sfida: diventare leader nel campo dell’intelligenza artificiale entro il 2030. E dalle parti di Pechino sono già iniziate le prime dimostrazioni di forza

Nonostante la strada sembri tracciata, le aziende della Silicon Valley rimangono riluttanti all’ipotesi di lavorare con il Pentagono. Lo dimostra il fatto che quando i dipendenti di Google hanno scoperto del Progetto Maven, in più di 3mila hanno firmato una lettera in cui chiedono di cancellare immediatamente la collaborazione. Accusano il programma di “intaccare il marchio dell’azienda e comprometterne i valori morali”. A questo proposito Eric Schmidt, nel consiglio d’amministrazione di Google, ha di recente parlato davanti alla Commissione dei servizi armati del Congresso. Durante l’audizione Schmidt ha ammesso che l’intelligenza artificiale «potrebbe essere utile per motivi difensivi e forse offensivi». Ha inoltre chiarito che le aziende avranno bisogno di darsi delle regole chiare e condivise per decidere cos’è appropriato e cosa non lo è. La conclusione? «È indispensabile assicurarsi che queste tecnologie siano sviluppate dall’esercito Usa in maniera etica e responsabile».

Ma gli Usa non possono tentennare troppo. La Cina ha già lanciato la sfida: diventare leader nel campo dell’intelligenza artificiale entro il 2030. E dalle parti di Pechino sono già iniziate le prime dimostrazioni di forza, come i 1.180 droni che a dicembre l’azienda EHang ha svelato al pubblico durante il Global Fortune Forum di Guangzhou. Anche Putin l’ha ammesso: «Chi diventerà leader nel campo dominerà il mondo». Mike Griffin, capo del dipartimento tecnologia del Pentagono, ha detto che «ci potrebbe essere una corsa alle armi che utilizzano intelligenza artificiale, ma per il momento non ci siamo ancora dentro». Eppure, secondo uno studio del Bard College, il dipartimento di Difesa ha chiesto più di 9 miliardi di dollari di finanziamento (quasi 2 in più rispetto al 2018) per l’approvvigionamento di 3.447 droni senza pilota. Il Pentagono ha richiesto più di 93 milioni di dollari per il Progetto Maven nel 2019. Un aumento rispetto ai 70 milioni del 2017, secondo quanto riferito al sito americano The Verge da un portavoce del Pentagono.

La corsa sembra già iniziata. E non potrebbe essere altrimenti, visto che per quanto riguarda alcuni tipi di compiti, le capacità umane impallidiscono. «Un buon analista può esaminare foto con un livello di precisione del 75%. Un ordinario computer può processare 1000 foto al minuto con una precisione del 99%. Questo è dove ci sta portando l’Intelligenza artificiale», ha dichiarato Stephen Wilson, vice capo staff dell’aeronautica militare Usa.

Un sistema che può essere ovunque e vedere qualsiasi cosa potrebbe convincere un avversario che è vulnerabile. Quell'avversario, farebbe di tutto per trovare il modo di mettersi al suo pari, in qualsiasi modo possibile. E a quel punto, la probabilità di una guerra nucleare sarebbe più alta che mai

Insomma, la tecnologia avanza. Infermabile. Ma dalle parti del Pentagono sembrano consci dei rischi. L’ultima a porsi il problema è stata la Rand Corporation, istituto di ricerca fondato nel dopoguerra con il supporto finanziario del Pentagono. Per farlo, è partita dalla vicenda del militare Stanislav Petrov. Chi è? L’uomo che, la notte del 26 settembre 1983, ha salvato il mondo. Quel giorno il tenente colonnello dell’Urss era di guardia in un bunker poco fuori Mosca con il compito di rispondere a eventuali attacchi nucleari Usa. A un certo punto, quella notte, l’allarme iniziò a suonare, rilevando 5 missili in arrivo. Petrov, però, ritenne improbabile un’offensiva così limitata. E decise di non contrattaccare. In seguito, venne accertato che si trattò di un errore dovuto principalmente alle scarse apparecchiature tecnologiche sovietiche. Ora, 25 anni dopo, la Rand Corporation, si chiede: cosa succederebbe se - tra qualche anno - una decisione simile fosse affidata all’intelligenza artificiale? Le risposte non sono incoraggianti. Non solo perché, come si potrebbe ingenuamente pensare, una macchina nella stessa situazione avrebbe potuto decidere di contrattaccare.

Per capire il pessimismo della Rand Corporation bisogna avere in mente uno dei principali motivi per cui la guerra fredda non si è trasformata in uno scontro nucleare: la teoria della la distruzione mutua assicurata. Una concezione secondo cui l’utilizzo di ordigni nucleari da parte di uno dei due schieramenti avrebbe finito per determinare la distruzione di entrambi. Per questo si creò una situazione di stallo, in cui nessuno si poteva permettere di far scoppiare una guerra. Se, in futuro, una macchina si trovasse nella stessa situazione di Petrov il pericolo più grande non sarebbe un immediato contrattacco dei computer. Il vero rischio, secondo la Rand Corporation, sarebbe che una tecnologia come l’intelligenza artificiale - in grado di accumulare una mole impressionante di dati di diverso tipo tramite i satelliti o l’intrusione nei sistemi informatici di difesa di un altro Paese - potrebbe disegnare una fotografia esauriente del reparto militare e difensivo di una nazione nemica.
Un sistema che può essere ovunque e vedere qualsiasi cosa potrebbe convincere un avversario che è vulnerabile. Quell'avversario, farebbe di tutto per trovare il modo di mettersi al suo pari, in qualsiasi modo possibile. Facendo salire sempre di più la tensione. A quel punto, la probabilità di una guerra nucleare sarebbe più alta che mai.

Potrebbe interessarti anche