Panoramica del framework PoseRBPF per il tracciamento della posa di oggetti 6D. Il metodo sfrutta un filtro antiparticolato Rao-Blackwellized e una rete di codifica automatica per stimare la traduzione 3D e una distribuzione completa della rotazione 3D di un oggetto target da una sequenza video. Credito:Università dell'Illinois a Urbana-Champaign
I robot sono bravi a fare movimenti ripetitivi identici, come un semplice compito su una catena di montaggio. (Prendete una tazza. Giratela. Mettetela giù.) Ma non hanno la capacità di percepire gli oggetti mentre si muovono attraverso un ambiente. (Un umano prende una tazza, lo mette in una posizione casuale, e il robot deve recuperarlo.) Un recente studio è stato condotto da ricercatori dell'Università dell'Illinois a Urbana-Champaign, NVIDIA, l'Università di Washington, e la Stanford University, sulla stima della posa di oggetti 6D per sviluppare un filtro per dare ai robot una maggiore percezione spaziale in modo che possano manipolare gli oggetti e navigare nello spazio in modo più accurato.
Mentre la posa 3D fornisce informazioni sulla posizione su X, si, e gli assi Z:posizione relativa dell'oggetto rispetto alla fotocamera:la posa 6D offre un'immagine molto più completa. "Proprio come descrivere un aeroplano in volo, il robot deve anche conoscere le tre dimensioni dell'orientamento dell'oggetto:la sua imbardata, pece, e rotola, " ha detto Xinke Deng, studente di dottorato che studia con Timothy Bretl, professore associato presso il Dipartimento di Ingegneria Aerospaziale presso l'U di I.
E negli ambienti della vita reale, tutte e sei queste dimensioni cambiano continuamente.
"Vogliamo che un robot continui a seguire un oggetto mentre si sposta da un luogo all'altro, " ha detto Deng.
Deng ha spiegato che il lavoro è stato fatto per migliorare la visione artificiale. Lui ei suoi colleghi hanno sviluppato un filtro per aiutare i robot ad analizzare i dati spaziali. Il filtro esamina ogni particella, o informazioni sull'immagine raccolte da telecamere puntate su un oggetto per ridurre gli errori di giudizio.
"In un framework di stima della posa 6D basato su immagini, un filtro antiparticolato utilizza molti campioni per stimare la posizione e l'orientamento, " Disse Deng. "Ogni particella è come un'ipotesi, un'ipotesi sulla posizione e l'orientamento che vogliamo stimare. Il filtro antiparticolato utilizza l'osservazione per calcolare il valore di importanza delle informazioni provenienti dalle altre particelle. Il filtro elimina le stime errate.
"Il nostro programma può stimare non solo una singola posa ma anche la distribuzione dell'incertezza dell'orientamento di un oggetto, " Deng ha detto. "In precedenza, non c'è stato un sistema per stimare la distribuzione completa dell'orientamento dell'oggetto. Ciò fornisce importanti informazioni sull'incertezza per la manipolazione dei robot".
Panoramica del framework PoseRBPF per il tracciamento della posa di oggetti 6D. Il metodo sfrutta un filtro antiparticolato Rao-Blackwellized e una rete di codifica automatica per stimare la traduzione 3D e una distribuzione completa della rotazione 3D di un oggetto target da una sequenza video. Credito:Dipartimento di ingegneria aerospaziale dell'Università dell'Illinois
Lo studio utilizza il tracciamento della posa di oggetti 6D nel framework di filtraggio delle particelle Rao-Blackwellized, dove la rotazione 3D e la traslazione 3D di un oggetto sono separate. Ciò consente l'approccio dei ricercatori, chiamato PoseRBPF, per stimare in modo efficiente la traslazione 3D di un oggetto insieme alla distribuzione completa durante la rotazione 3D. Di conseguenza, PoseRBPF può tracciare oggetti con simmetrie arbitrarie pur mantenendo adeguate distribuzioni posteriori.
"Il nostro approccio raggiunge risultati all'avanguardia su due benchmark di stima della posa 6D, " ha detto Deng.
Lo studio, "PoseRBPF:un filtro antiparticolato Rao-Blackwellized per la stima della posa di oggetti 6D, " è stato presentato alla Robotics Science and Systems Conference di Friburgo, Germania. È co-scritto da Xinke Deng, Arsala Mousavian, Yu Xiang, Fei Xia, Timothy Bretl, e Dieter Fox.