• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Un proiettore si è divertito troppo con la tecnologia automobilistica

    Smettila. Puoi ingannare un sistema di pilota automatico Tesla con un proiettore?

    Veramente, un'immagine proiettata di un essere umano è considerata dal sistema automobilistico come una persona reale?

    E stai dicendo che Mobileye 630 PRO considera il segnale stradale proiettato come un vero segnale stradale?

    Questi sono i risultati di un team di ricercatori che hanno mostrato i tipi di attacchi fantasma che possono verificarsi per ingannare i sistemi di assistenza alla guida.

    Il team ha scritto un documento e consegnato una demo video sui loro esperimenti e scoperte. Il documento si chiama "Fantasma dell'ADAS:attacchi fantasma ai sistemi di assistenza alla guida".

    Gli autori sono Ben Nassi, Dudi Nassi, Raz Ben Netanel, Yisroel Mirsky, Oleg Drokin, e Yuval Elovici. Le affiliazioni degli autori includono la Ben-Gurion University of the Negev e la Georgia Tech. Hanno usato i sistemi Tesla Model X e Mobileye 630 PRO per i test. Hanno anche usato una serie di immagini proiettate; questi includevano una figura umana e un segnale stradale.

    Volevano sapere se si può far credere a un sistema che sia una situazione del mondo reale, confondendo il sistema e assumendo un livello di controllo sul sistema. "I fantasmi possono anche far frenare improvvisamente la Tesla Model X (HW 2.5)".

    Un video dimostrativo ha mostrato come l'auto ha ridotto la sua velocità da 18 mph a 14 mph a causa di un fantasma che è stato rilevato come persona.

    Notare che hanno usato molto la parola "fantasma":"Un fantasma è un oggetto senza profondità destinato a far sì che gli ADAS e i sistemi di pilota automatico percepiscano l'oggetto e lo considerino reale. L'oggetto può essere un ostacolo (ad es. persona, macchina, camion, motociclo), sentiero, o segnale stradale, " disse Nassi.

    Ma perché un famoso marchio di auto-guida come Tesla dovrebbe avere un sistema che vedrebbe i fantasmi come veri ostacoli? Nassi ha affrontato questo problema sul suo sito nella sezione FAQ. "Riteniamo che questo sia probabilmente il risultato di una politica 'meglio prevenire che curare' che considera una proiezione visiva un oggetto reale anche se l'oggetto non viene rilevato da altri sensori (ad es. radar e sensori a ultrasuoni)."

    Le false linee stradali facevano parte dei loro esperimenti e fu letta un'istruzione per passare dall'altra parte della strada, tramite linee false e corsie fantasma.

    Alex Kidman, Gizmodo , ha scritto degli esperimenti mercoledì. Il problema con i sistemi Mobileye e Tesla, scrisse, è stato che i ricercatori hanno scoperto che il modello di riconoscimento delle immagini ha permesso agli oggetti fantasma di essere riconosciuti come reali. Tutto sommato, c'è una grande sfida percettiva quando gli attacchi fantasma vanno contro i sistemi avanzati di assistenza alla guida (ADAS) e gli autopiloti.

    Un video del 28 gennaio è stato pubblicato dai Cyber ​​Security Labs della Ben Gurion University.

    Lo strumento di pilota automatico di Tesla è generalmente considerato l'attuale gold standard nei veicoli autonomi, disse Gizmodo . Infatti, gli autori dell'articolo riguardano Mobileye 630 PRO e Tesla Model X, HW 2.5 come le tecnologie ADAS e autopilota più avanzate di oggi.

    Il livello di pilota automatico di Tesla consente un numero limitato, non pieno, guida autonoma:il veicolo ha il pieno controllo solo in alcune situazioni e informerà il conducente quando prendere il sopravvento.

    Come Ars Tecnica ha sottolineato Jim Salter nel suo articolo, "Certo, nessuno dovrebbe lasciare che una Tesla guidi da sola senza sorveglianza, in primo luogo, " poiché Autopilot non è il controller per un'auto completamente autonoma.

    Salter ha fatto questo punto per passare ad un altro punto importante:"All'interno di questi vincoli, anche la peggiore delle risposte dimostrate nel video di Nassi, quella della Model X che sterza per seguire finte indicazioni di corsia sulla strada, non sembra così male. Infatti, quella clip dimostra esattamente cosa dovrebbe succedere:il proprietario della Model X, preoccupato per quello che diavolo potrebbe fare la sua auto costosa, ha premuto i freni e ha preso il controllo manualmente dopo che l'Autopilot è andato in una direzione non sicura".

    Il team ha affermato di aver divulgato i risultati a Mobileye e Tesla, i due sistemi utilizzati negli esperimenti. "Abbiamo tenuto aggiornati Tesla e Mobileye tramite una serie di e-mail inviate dall'inizio di maggio al 19 ottobre".

    L'estratto dal loro articolo:

    "...indaghiamo una nuova sfida percettiva che induce gli ADAS e gli autopiloti di semi/completamente autonomi a considerare gli oggetti senza profondità (fantasmi) come reali. Mostriamo come gli aggressori possono sfruttare questa sfida percettiva...senza la necessità di avvicinarsi fisicamente al scena dell'attacco, proiettando un fantasma tramite un drone dotato di un proiettore portatile o presentando un fantasma su un cartellone digitale hackerato che si affaccia su Internet e si trova vicino alle strade... l'ADAS o il pilota automatico di un'auto considera i fantasmi come oggetti reali, facendo in modo che questi sistemi agiscano sui freni, sterzare nella corsia del traffico in arrivo, e inviare notifiche sui falsi segnali stradali".

    Opzioni di mitigazione? Gli autori, mitigare, presentato "un modello che analizza il contesto di un oggetto rilevato, superficie, e luce riflessa, che è in grado di rilevare fantasmi con 0,99 AUC. Finalmente, spieghiamo perché l'implementazione di sistemi di comunicazione veicolare potrebbe ridurre le opportunità degli aggressori di applicare attacchi fantasma ma non li eliminerà."

    Salter è tornato a sei mesi fa, quando "Ben Nassi, un dottorato di ricerca studente all'Università Ben-Gurion consigliato dal professor Yuval Elovici, ha portato a termine una serie di attacchi di spoofing riusciti contro un sistema di assistenza alla guida Mobileye 630 Pro utilizzando droni economici e proiettori alimentati a batteria. Da allora, ha ampliato la tecnica per sperimentare, anche con successo, confondendo una Tesla Model X."

    Saltatore, tutto sommato, soppesato con la sua opinione su ciò che la ricerca insegnava e perché fosse importante:"per la maggior parte, ci sembra che la Tesla risponda abbastanza ragionevolmente e bene a questi deliberati tentativi di confondere i suoi sensori. Pensiamo che questo tipo di lavoro sia importante, però, in quanto dimostra la necessità di una progettazione difensiva di sistemi di guida semi-autonomi."

    Gli autori nel loro articolo hanno scritto, "Non abbiamo nulla contro Tesla o Mobileye, e il motivo per cui i loro prodotti sono stati utilizzati nei nostri esperimenti è perché i loro prodotti sono i migliori e più popolari disponibili sul mercato".

    © 2020 Scienza X Rete




    © Scienza https://it.scienceaq.com