Credito:CC0 Dominio Pubblico
I sensori laser attualmente utilizzati per rilevare oggetti 3D nei percorsi delle auto a guida autonoma sono ingombranti, brutto, caro, inefficiente dal punto di vista energetico e altamente preciso.
Questi sensori di rilevamento della luce e portata (LiDAR) sono fissati ai tetti delle auto, dove aumentano la resistenza del vento, un particolare svantaggio per le auto elettriche. Possono aggiungere circa $ 10, 000 al costo di un'auto. Ma nonostante i loro svantaggi, la maggior parte degli esperti ha considerato i sensori LiDAR l'unico modo plausibile per i veicoli a guida autonoma di percepire in sicurezza i pedoni, automobili e altri pericoli sulla strada.
Ora, I ricercatori della Cornell hanno scoperto che un metodo più semplice, utilizzando due telecamere economiche su entrambi i lati del parabrezza, può rilevare oggetti con una precisione quasi LiDAR e ad una frazione del costo. I ricercatori hanno scoperto che l'analisi delle immagini catturate da una vista a volo d'uccello piuttosto che dalla più tradizionale vista frontale ha più che triplicato la loro precisione, rendendo la telecamera stereo un'alternativa praticabile ed economica al LiDAR.
"Uno dei problemi essenziali nelle auto a guida autonoma è identificare gli oggetti intorno a loro - ovviamente è fondamentale per un'auto per navigare nel suo ambiente, " ha detto Kilian Weinberger, professore associato di informatica e autore senior dell'articolo, "Pseudo-LiDAR dalla stima della profondità visiva:colmare il divario nel rilevamento di oggetti 3D per la guida autonoma, " che sarà presentato alla Conferenza 2019 su Computer Vision and Pattern Recognition, 15-21 giugno a Long Beach, California.
"La convinzione comune è che non si possano realizzare auto a guida autonoma senza LiDAR, " Weinberger ha detto. "Abbiamo dimostrato, almeno in linea di principio, che è possibile."
Il primo autore dell'articolo è Yan Wang, dottorando in informatica.
I sensori LiDAR utilizzano i laser per creare mappe di punti 3D dell'ambiente circostante, misurare la distanza degli oggetti tramite la velocità della luce. Telecamere stereo, che si basano su due prospettive per stabilire la profondità, come fanno gli occhi umani, sembrava promettente. Ma la loro precisione nel rilevamento degli oggetti è stata terribilmente bassa, e la saggezza convenzionale era che erano troppo imprecisi.
Quindi Wang e i suoi collaboratori hanno esaminato più da vicino i dati delle telecamere stereo. Con loro sorpresa, hanno scoperto che le loro informazioni erano precise quasi quanto LiDAR. Il divario di precisione è emerso, hanno trovato, durante l'analisi dei dati delle telecamere stereo.
Per la maggior parte delle auto a guida autonoma, i dati catturati da telecamere o sensori vengono analizzati utilizzando reti neurali convoluzionali – una sorta di machine learning che identifica le immagini applicando filtri che riconoscono i pattern ad esse associati. Queste reti neurali convoluzionali hanno dimostrato di essere molto efficaci nell'identificare oggetti nelle fotografie a colori standard, ma possono distorcere le informazioni 3D se rappresentate frontalmente. Quindi, quando Wang e colleghi hanno cambiato la rappresentazione da una prospettiva frontale a una nuvola di punti osservata da una prospettiva a volo d'uccello, la precisione è più che triplicata.
"Quando hai le immagini della fotocamera, è così, così, così allettante guardare la vista frontale, perché è quello che vede la telecamera, " Weinberger ha detto. "Ma c'è anche il problema, perché se vedi gli oggetti dal davanti, il modo in cui vengono elaborati in realtà li deforma, e offuschi gli oggetti sullo sfondo e ne deformi le forme."
In definitiva, Weinberger ha detto, le telecamere stereo potrebbero essere utilizzate come mezzo principale per identificare gli oggetti nelle auto a basso costo, o come metodo di backup in auto di fascia alta che sono anche dotate di LiDAR.
"L'industria automobilistica a guida autonoma è stata riluttante ad abbandonare il LiDAR, anche con i costi elevati, data la sua eccellente precisione di autonomia, essenziale per la sicurezza intorno all'auto, " ha detto Mark Campbell, il John A. Mellowes '60 Professor e S.C. Thomas Sze Direttore della Sibley School of Mechanical and Aerospace Engineering e coautore dell'articolo. "Il notevole miglioramento del rilevamento della portata e della precisione, con la rappresentazione a volo d'uccello dei dati della fotocamera, ha il potenziale per rivoluzionare il settore".
I risultati hanno implicazioni che vanno al di là delle auto a guida autonoma, ha detto il co-autore Bharath Hariharan, assistente professore di informatica.
"C'è una tendenza nella pratica attuale a fornire i dati così come sono a complessi algoritmi di apprendimento automatico partendo dal presupposto che questi algoritmi possano sempre estrarre le informazioni rilevanti, " Hariharan ha detto. "I nostri risultati suggeriscono che questo non è necessariamente vero, e che dovremmo riflettere su come vengono rappresentati i dati".
Hanno contribuito anche il ricercatore postdottorato di Cornell Wei-Lun Chao e Divyansh Garg '20.