• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Il sistema di imaging con rilevamento della profondità può scrutare attraverso la nebbia

    Il sistema del MIT è stato in grado di risolvere immagini di oggetti e misurarne la profondità a un intervallo di 57 centimetri. Credito:Melanie Gonick/MIT

    I ricercatori del MIT hanno sviluppato un sistema in grado di produrre immagini di oggetti avvolti da una nebbia così fitta che la visione umana non può penetrarla. Può anche misurare la distanza degli oggetti.

    L'incapacità di gestire condizioni di guida con nebbia è stato uno dei principali ostacoli allo sviluppo di sistemi di navigazione veicolare autonomi che utilizzano la luce visibile, che sono preferibili ai sistemi basati su radar per la loro alta risoluzione e capacità di leggere i segnali stradali e tracciare gli indicatori di corsia. Così, il sistema del MIT potrebbe essere un passo cruciale verso le auto a guida autonoma.

    I ricercatori hanno testato il sistema utilizzando un piccolo serbatoio d'acqua con il motore vibrante di un umidificatore immerso in esso. In una nebbia così densa che la visione umana potrebbe penetrare solo 36 centimetri, il sistema è stato in grado di risolvere immagini di oggetti e misurarne la profondità a una distanza di 57 centimetri.

    Cinquantasette centimetri non è una grande distanza, ma la nebbia prodotta per lo studio è molto più densa di quella con cui un guidatore umano dovrebbe fare i conti; nel mondo reale, una tipica nebbia potrebbe offrire una visibilità di circa 30-50 metri. Il punto vitale è che il sistema ha funzionato meglio della visione umana, mentre la maggior parte dei sistemi di imaging ha prestazioni molto peggiori. Un sistema di navigazione capace di guidare in caso di nebbia quanto un guidatore umano sarebbe un enorme passo avanti.

    "Ho deciso di accettare la sfida di sviluppare un sistema in grado di vedere attraverso la nebbia reale, "dice Guy Satat, uno studente laureato al MIT Media Lab, che ha condotto la ricerca. "Abbiamo a che fare con una nebbia realistica, che è denso, dinamico, ed eterogeneo. È in continuo movimento e cambiamento, con macchie di nebbia più o meno densa. Altri metodi non sono progettati per far fronte a scenari così realistici".

    Satat ei suoi colleghi descrivono il loro sistema in un documento che presenteranno alla Conferenza internazionale sulla fotografia computazionale a maggio. Satat è il primo autore sulla carta, ed è affiancato dal suo relatore di tesi, professore associato di arti e scienze dei media Ramesh Raskar, e da Matthew Tancik, che era uno studente laureato in ingegneria elettrica e informatica quando il lavoro era finito.

    Giocare con le probabilità

    Come molti dei progetti intrapresi nel Camera Culture Group di Raskar, il nuovo sistema utilizza una telecamera per il tempo di volo, che spara raggi ultracorti di luce laser in una scena e misura il tempo impiegato dai loro riflessi per tornare.

    In una giornata limpida, il tempo di ritorno della luce indica fedelmente le distanze degli oggetti che la riflettevano. Ma la nebbia fa "spargere" la luce, " o rimbalzare in modi casuali. In caso di nebbia, la maggior parte della luce che raggiunge il sensore della fotocamera sarà stata riflessa da gocce d'acqua trasportate dall'aria, non dai tipi di oggetti che i veicoli autonomi devono evitare. E anche la luce che si riflette da potenziali ostacoli arriverà in momenti diversi, essendo stato deviato da gocce d'acqua sia all'andata che al ritorno.

    Credito:Melanie Gonick/MIT

    Il sistema del MIT aggira questo problema utilizzando le statistiche. I modelli prodotti dalla luce riflessa dalla nebbia variano a seconda della densità della nebbia:in media, la luce penetra meno profondamente in una nebbia fitta che in una nebbia leggera. Ma i ricercatori del MIT sono stati in grado di dimostrare che, non importa quanto fitta sia la nebbia, i tempi di arrivo della luce riflessa aderiscono a uno schema statistico noto come distribuzione gamma.

    Le distribuzioni gamma sono un po' più complesse delle distribuzioni gaussiane, le distribuzioni comuni che producono la familiare curva a campana:possono essere asimmetriche, e possono assumere una più ampia varietà di forme. Ma come le distribuzioni gaussiane, sono completamente descritti da due variabili. Il sistema MIT stima i valori di tali variabili al volo e utilizza la distribuzione risultante per filtrare il riflesso della nebbia dal segnale luminoso che raggiunge il sensore della telecamera del tempo di volo.

    In modo cruciale, il sistema calcola una diversa distribuzione gamma per ciascuno degli 1, 024 pixel nel sensore. Ecco perché è in grado di gestire le variazioni nella densità della nebbia che hanno sventato i sistemi precedenti:può gestire le circostanze in cui ogni pixel vede un diverso tipo di nebbia.

    Forme della firma

    La fotocamera conta il numero di particelle luminose, o fotoni, che lo raggiungono ogni 56 picosecondi, o trilionesimi di secondo. Il sistema MIT utilizza quei conteggi grezzi per produrre un istogramma, essenzialmente un grafico a barre, con le altezze delle barre che indicano i conteggi dei fotoni per ogni intervallo. Quindi trova la distribuzione gamma che meglio si adatta alla forma del grafico a barre e sottrae semplicemente i conteggi di fotoni associati dai totali misurati. Ciò che rimane sono lievi picchi alle distanze che si correlano con ostacoli fisici.

    "La cosa bella di questo è che è piuttosto semplice, " Dice Satat. "Se guardi al calcolo e al metodo, è sorprendentemente non complesso. Inoltre non abbiamo bisogno di alcuna conoscenza preliminare sulla nebbia e sulla sua densità, che lo aiuta a lavorare in una vasta gamma di condizioni di nebbia."

    Satat ha testato il sistema utilizzando una camera a nebbia lunga un metro. All'interno della camera, ha montato marcatori di distanza regolarmente distanziati, che forniva una misura approssimativa della visibilità. Posò anche una serie di piccoli oggetti:una statuina di legno, blocchi di legno, sagome di lettere, che il sistema era in grado di immaginare anche quando erano indistinguibili a occhio nudo.

    Esistono diversi modi per misurare la visibilità, tuttavia:oggetti con colori e trame diversi sono visibili attraverso la nebbia a distanze diverse. Così, per valutare le prestazioni del sistema, ha usato una metrica più rigorosa chiamata profondità ottica, che descrive la quantità di luce che penetra nella nebbia.

    La profondità ottica è indipendente dalla distanza, quindi le prestazioni del sistema su nebbia che ha una particolare profondità ottica a una distanza di 1 metro dovrebbe essere un buon predittore delle sue prestazioni su nebbia che ha la stessa profondità ottica a una distanza di 30 metri. Infatti, il sistema potrebbe anche andare meglio a distanze maggiori, poiché le differenze tra i tempi di arrivo dei fotoni saranno maggiori, che potrebbe creare istogrammi più accurati.

    "Il maltempo è uno dei grandi ostacoli da affrontare per la tecnologia di guida autonoma, "dice Srinivasa Narasimhan, professore di informatica alla Carnegie Mellon University. "Il lavoro innovativo di Guy e Ramesh produce il miglior miglioramento della visibilità che abbia mai visto a lunghezze d'onda visibili o vicine all'infrarosso e ha il potenziale per essere implementato molto presto sulle auto".

    Questa storia è stata ripubblicata per gentile concessione di MIT News (web.mit.edu/newsoffice/), un popolare sito che copre notizie sulla ricerca del MIT, innovazione e didattica.




    © Scienza https://it.scienceaq.com