Auto a guida autonoma, gli hacker saranno un pericolo ma il rischio è sottovalutato

Si prepara una nuova generazione di attacchi hacker, basati su sistemi di apprendimento automatico antagonistico, che confondono i sistemi di riconoscimento facciale delle auto. A oggi la prevenzione di questi rischi è molto indietro

Self Driving Truck

Un camion Mercedes a guida autonoma

MARIJAN MURAT / DPA / AFP

23 Agosto Ago 2017 1430 23 agosto 2017 23 Agosto 2017 - 14:30
Tendenze Online

Prima che taxi e camion a guida autonoma comincino a circolare liberamente per strada, le case costruttrici dovranno risolvere problemi ben più complessi rispetto ai sistemi di navigazione e sicurezza (vedi “10 Breakthrough Technologies 2017: Self-Driving Trucks”).

Queste vetture dovranno anticipare e sapersi difendere da un ampio spettro di attacchi malevoli perpetrati sia attraverso le tradizionali tecniche di attacco informatico che attraverso una nuova generazione di attacchi basati sul cosiddetto apprendimento automatico antagonistico (o adversarial machine learning, vedi “AI Fight Club Could Help Save Us from a Future of Super-Smart Cyberattacks”). Con la crescente percezione che le vetture a guida autonoma siano ormai prossime a diffondersi nella forma di taxi o autotrasporti pesanti robotizzati, il rischio che tali sistemi possano subire degli attacchi informatici non ha certamente ricevuto la dovuta attenzione.

Mi tornano in mente diversi articoli che promuovevano le e-mail nei primi anni ’90, prima che il nuovo mondo delle comunicazioni elettroniche venisse investito da ondate di spam indesiderato. Al tempo, la promessa dell’apprendimento automatico veniva interpretata come una soluzione ai problemi di spam del mondo. Certamente, oggi, i problemi dello spam sono stati ampiamente risolti – ma sono occorsi decenni per giungere alla soluzione.

Ad oggi non esistono rapporti riguardo attacchi ostili ai danni di vetture a guida autonoma. Ironicamente, però, questo è un problema. Anche mentre le startup dot-com degli anni ’90 sviluppavano le loro prime piattaforme di e-commerce non si sentiva parlare di attacchi hacker. Dopo la prima grande serie di violazioni ai danni delle piattaforme di e-commerce, Bill Gates e Microsoft cominciarono a prendere sul serio il tema della sicurezza informatica. Il risultato: oggi Windows è uno dei sistemi operativi più sicuri, e Microsoft investe più di un miliardo di dollari l’anno nella sicurezza informatica. Eppure, gli hacker continuano a individuare falle nei sistemi operativi, nei browser e nelle applicazioni Windows.

L’anno scorso, i ricercatori della CMU hanno dimostrato che i sistemi di riconoscimento facciale potevano essere ingannati semplicemente indossando occhiali con delle fantasie particolari stampate sulla montatura. Qualcosa nell’aspetto di queste fantasie ingannava gli algoritmi al punto da convincerli di vedere qualcosa che non c’era

Le case automobilistiche dovranno probabilmente procedere in maniera analoga. Dopo essersi esposte con la loro negligenza – il bus CAN, progettato negli anni ’80, non prevedeva alcun concetto di autenticazione – sembrano prestare più attenzione al tema. Quando un gruppo di hacker ha dimostrato che le vetture per strada erano vulnerabili a diverse forme di attacco, le case costruttrici hanno reagito con richiami e aggiornamenti nei firmware di milioni di vetture. Lo scorso luglio, il Ceo di GM, Mary Barra, ha detto che la protezione delle vetture da incidenti informatici “è una questione di sicurezza pubblica”.

Gli sforzi attuati finora, però, potrebbero ugualmente risultare inadeguati. I sistemi di visione computerizzata e anticollisione in fase di sviluppo per le vetture a guida autonoma si affidano a complessi algoritmi di apprendimento automatico ormai ampiamente compresi (vedi “The Dark Secret at the Heart of AI”).

L’anno scorso, i ricercatori della CMU (Carnegie Mellon University di Pittsburgh) hanno dimostrato che i sistemi di riconoscimento facciale potevano essere ingannati semplicemente indossando occhiali con delle fantasie particolari stampate sulla montatura. Qualcosa nell’aspetto di queste fantasie ingannava gli algoritmi al punto da convincerli di vedere qualcosa che non c’era. «Abbiamo dimostrato come un aggressore potrebbe ingannare gli algoritmi più avanzati basati su reti neurali e impersonare una persona, o semplicemente sfuggire a un riconoscimento», aveva scritto il ricercatore capo Mahmood Sharif in una e-mail.

(...)

Continua a leggere su Mit - Technology Review Italia

A oggi non esistono rapporti riguardo attacchi ostili ai danni di vetture a guida autonoma. Ironicamente, però, questo è un problema

Potrebbe interessarti anche