Per portare un ragionamento più umano nella navigazione dei veicoli autonomi, I ricercatori del MIT hanno creato un sistema che consente alle auto senza conducente di controllare una semplice mappa e utilizzare i dati visivi per seguire percorsi in nuove, ambienti complessi. Credito:Chelsea Turner
Con l'obiettivo di portare un ragionamento più simile a quello umano nei veicoli autonomi, I ricercatori del MIT hanno creato un sistema che utilizza solo semplici mappe e dati visivi per consentire alle auto senza conducente di navigare su percorsi nuovi, ambienti complessi.
I conducenti umani sono eccezionalmente bravi a percorrere strade su cui non hanno mai guidato prima, utilizzando l'osservazione e strumenti semplici. Semplicemente abbiniamo ciò che vediamo intorno a noi a ciò che vediamo sui nostri dispositivi GPS per determinare dove siamo e dove dobbiamo andare. Auto senza pilota, però, lottare con questo ragionamento di base. In ogni nuova area, le auto devono prima mappare e analizzare tutte le nuove strade, che richiede molto tempo. I sistemi si basano anche su mappe complesse, generalmente generate da scansioni 3D, che richiedono un'elevata intensità di calcolo da generare ed elaborare al volo.
In un documento presentato alla Conferenza internazionale su robotica e automazione di questa settimana, I ricercatori del MIT descrivono un sistema di controllo autonomo che "apprende" gli schemi di guida dei conducenti umani mentre percorrono le strade in una piccola area, utilizzando solo i dati dei feed della videocamera e una semplice mappa simile al GPS. Quindi, il sistema addestrato può controllare un'auto senza conducente lungo un percorso pianificato in un'area nuova di zecca, imitando il guidatore umano.
Analogamente ai conducenti umani, il sistema rileva anche eventuali discrepanze tra la sua mappa e le caratteristiche della strada. Questo aiuta il sistema a determinare se la sua posizione, sensori, o la mappatura non sono corretti, per correggere la rotta dell'auto.
Per addestrare il sistema inizialmente, un operatore umano controllava una Toyota Prius senza conducente, dotata di diverse telecamere e un sistema di navigazione GPS di base, raccogliendo dati dalle strade suburbane locali, comprese varie strutture stradali e ostacoli. Quando distribuito in modo autonomo, il sistema ha guidato con successo l'auto lungo un percorso prestabilito in una diversa area boschiva, designato per i test sui veicoli autonomi.
"Con il nostro sistema, non è necessario allenarsi in anticipo su ogni strada, " dice il primo autore Alexander Amini, uno studente laureato del MIT. "Puoi scaricare una nuova mappa per far navigare l'auto attraverso strade che non ha mai visto prima."
"Il nostro obiettivo è ottenere una navigazione autonoma che sia robusta per la guida in nuovi ambienti, " aggiunge la coautrice Daniela Rus, direttore del Laboratorio di Informatica e Intelligenza Artificiale (CSAIL) e Andrea ed Erna Viterbi Professore di Ingegneria Elettrica e Informatica. "Per esempio, se addestriamo un veicolo autonomo per guidare in un contesto urbano come le strade di Cambridge, il sistema dovrebbe anche essere in grado di guidare senza problemi nei boschi, anche se questo è un ambiente che non ha mai visto prima."
Ad unirsi a Rus e Amini sul giornale ci sono Guy Rosman, un ricercatore presso il Toyota Research Institute, e Sertac Karaman, professore associato di aeronautica e astronautica al MIT.
Navigazione da punto a punto
I sistemi di navigazione tradizionali elaborano i dati dai sensori attraverso più moduli personalizzati per attività come localizzazione, Mappatura, rilevamento di oggetti, pianificazione del movimento, e controllo dello sterzo. Per anni, Il gruppo di Rus ha sviluppato sistemi di navigazione "end-to-end", che elaborano i dati sensoriali immessi e inviano i comandi di guida, senza bisogno di moduli specializzati.
Fino ad ora, però, questi modelli sono stati rigorosamente progettati per seguire la strada in sicurezza, senza una vera destinazione in mente. Nel nuovo giornale, i ricercatori hanno avanzato il loro sistema end-to-end per guidare dall'obiettivo alla destinazione, in un ambiente mai visto prima. Fare così, i ricercatori hanno addestrato il loro sistema a prevedere una distribuzione di probabilità completa su tutti i possibili comandi di sterzata in un dato istante durante la guida.
Il sistema utilizza un modello di apprendimento automatico chiamato rete neurale convoluzionale (CNN), comunemente usato per il riconoscimento delle immagini. Durante l'allenamento, il sistema osserva e impara a sterzare da un guidatore umano. La CNN correla le rotazioni del volante alle curvature stradali che osserva attraverso le telecamere e una mappa inserita. Infine, apprende il comando di sterzata più probabile per varie situazioni di guida, come strade diritte, intersezioni a quattro vie o a forma di T, forchette, e rotanti.
"Inizialmente, ad un incrocio a forma di T, ci sono molte direzioni diverse in cui l'auto potrebbe girare, " dice Rus. "Il modello inizia pensando a tutte quelle direzioni, ma poiché vede sempre più dati su ciò che fanno le persone, vedrà che alcune persone girano a sinistra e altre a destra, ma nessuno va dritto. Dritto è escluso come possibile direzione, e il modello apprende che, agli incroci a forma di T, può muoversi solo a sinistra o a destra."
Cosa dice la mappa?
Nella prova, i ricercatori hanno inserito nel sistema una mappa con un percorso scelto a caso. Durante la guida, il sistema estrae le caratteristiche visive dalla telecamera, che consente di prevedere le strutture stradali. Ad esempio, identifica un segnale di stop distante o interruzioni di linea sul lato della strada come segni di un incrocio imminente. In ogni momento, utilizza la sua distribuzione di probabilità prevista dei comandi di governo per scegliere quello più probabile per seguire il suo percorso.
È importante sottolineare che dicono i ricercatori, il sistema utilizza mappe facili da memorizzare ed elaborare. I sistemi di controllo autonomi in genere utilizzano scansioni LIDAR per creare enormi, mappe complesse che richiedono circa 4, 000 gigabyte (4 terabyte) di dati per archiviare solo la città di San Francisco. Per ogni nuova destinazione, l'auto deve creare nuove mappe, il che equivale a tonnellate di elaborazione dati. Mappe utilizzate dal sistema dei ricercatori, però, cattura il mondo intero utilizzando solo 40 gigabyte di dati.
Durante la guida autonoma, il sistema inoltre abbina continuamente i suoi dati visivi ai dati della mappa e rileva eventuali discrepanze. Ciò aiuta il veicolo autonomo a determinare meglio dove si trova sulla strada. E assicura che l'auto rimanga sul percorso più sicuro se riceve informazioni di input contraddittorie:se, dire, l'auto sta percorrendo una strada dritta senza curve, e il GPS indica che l'auto deve svoltare a destra, l'auto saprà continuare a guidare dritta o fermarsi.
"Nel mondo reale, i sensori si guastano, " Dice Amini. "Vogliamo assicurarci che il sistema sia resistente a diversi guasti di diversi sensori costruendo un sistema in grado di accettare questi input rumorosi e allo stesso tempo navigare e localizzarsi correttamente sulla strada".