• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Un occhio più veloce per la robotica per aiutare nel nostro disordinato, ambienti umani

    Strano lavoro, uno dei due robot nel laboratorio del Professore Associato CSE Chad Jenkin, afferra per un oggetto. Strano lavoro e il suo doppio, biscotto, attualmente sono in grado di afferrare oggetti in base alla profondità e alla percezione del colore. Credito:Giuseppe Xu, Ingegneria del Michigan

    In un passo verso i robot home-helper in grado di navigare rapidamente in spazi imprevedibili e disordinati, I ricercatori dell'Università del Michigan hanno sviluppato un algoritmo che consente alle macchine di percepire i loro ambienti ordini di grandezza più velocemente rispetto ad approcci precedenti simili.

    "La percezione dei robot è uno dei maggiori colli di bottiglia nella fornitura di robot di assistenza capaci che possono essere implementati nelle case delle persone, " ha detto Karthik Desing, uno studente laureato in informatica e ingegneria e autore principale di un articolo sul lavoro pubblicato in Robotica scientifica .

    "Negli ambienti industriali, dove c'è struttura, i robot possono completare compiti come costruire automobili molto rapidamente. Ma viviamo in ambienti non strutturati, e vogliamo che i robot siano in grado di gestire il nostro disordine".

    Storicamente, i robot operano in modo più efficace in ambienti strutturati, dietro ringhiere o gabbie per mantenere gli esseri umani al sicuro e l'area di lavoro del robot pulita e ordinata. Però, un ambiente umano, al lavoro o a casa, è tipicamente un miscuglio di oggetti in vari stati:fogli su una tastiera, una borsa che nasconde le chiavi della macchina, o un grembiule che nasconde armadi semiaperti.

    Il nuovo algoritmo del team si chiama Pull Message Passing for Nonparametric Belief Propagation. In 10 minuti può calcolare una comprensione accurata della posa di un oggetto, o posizione e orientamento, a un livello di precisione che richiede approcci precedenti più di un'ora e mezza.

    Il team lo ha dimostrato con un robot Fetch. Hanno dimostrato che il loro algoritmo può percepire e utilizzare correttamente una serie di cassetti, anche se semicoperto da una coperta, quando un cassetto è semiaperto, o quando il braccio del robot stesso nasconde una vista completa del sensore dei cassetti. L'algoritmo può anche scalare oltre un semplice comò fino a un oggetto con più giunti complicati. Hanno dimostrato che il robot può percepire con precisione il proprio corpo e il braccio della pinza.

    "I concetti alla base del nostro algoritmo, come la propagazione delle credenze non parametriche, sono già utilizzati nella visione artificiale e si comportano molto bene nel catturare le incertezze del nostro mondo. Ma questi modelli hanno avuto un impatto limitato nella robotica in quanto sono molto costosi dal punto di vista computazionale, richiedere più tempo del pratico per un robot interattivo per aiutare nelle attività quotidiane, "ha detto Chad Jenkins, professore di informatica e ingegneria e membro di facoltà del Michigan's Robotics Institute.

    Le tecniche precedenti si basavano sulla "messaggistica push"

    La tecnica Nonparametric Belief Propagation insieme alla tecnica simile Particle Message Passing sono state pubblicate per la prima volta nel 2003. Sono efficaci nella visione artificiale, che tenta di acquisire una conoscenza approfondita di una scena attraverso immagini e video. Questo perché le immagini o i video bidimensionali richiedono meno tempo e potenza di calcolo rispetto alle scene tridimensionali coinvolte nella percezione del robot.

    Questi approcci precedenti comprendono una scena traducendola in un modello grafico di nodi e bordi, che rappresentano ogni componente di un oggetto e le loro relazioni reciproche. Gli algoritmi quindi ipotizzano o creano convinzioni su posizioni e orientamenti dei componenti quando viene data una serie di vincoli. Queste credenze, che i ricercatori chiamano particelle, variare in una gamma di probabilità.

    Per restringere le posizioni e gli orientamenti più probabili, i componenti utilizzano "messaggi push" per inviare informazioni sulla probabile posizione attraverso i nodi e viceversa. Tali informazioni sulla posizione vengono quindi confrontate con i dati del sensore. Questo processo richiede diverse iterazioni per arrivare alla fine a una credenza accurata di una scena.

    Per esempio, regalato un comò con tre cassetti, ogni componente dell'oggetto, in questo caso, ogni cassetto e la cassettiera stessa sarebbero un nodo. I vincoli sarebbero che i cassetti devono essere all'interno del comò, e i cassetti si muovono lateralmente ma non verticalmente.

    L'informazione, passato tra i nodi, viene confrontato con osservazioni reali da sensori, come un'immagine 2D e una nuvola di punti 3D. I messaggi vengono ripetuti attraverso le iterazioni fino a quando non c'è un accordo tra le credenze ei dati dei sensori.

    I nuovi algoritmi passano al "pull messaging"

    Per semplificare le esigenze informatiche, Desingh e il team del Michigan hanno utilizzato quello che viene chiamato "messaggistica pull". Il loro approccio trasforma la cacofonia di avanti e indietro, messaggi densi di informazioni in una conversazione concisa tra i componenti di un oggetto.

    In questo esempio, invece del comò che invia le informazioni sulla posizione a un cassetto solo dopo aver calcolato le informazioni dagli altri cassetti, il comò controlla prima con i cassetti. Chiede ad ogni cassetto la propria convinzione della sua posizione, poi, per la precisione, soppesa quella convinzione contro le informazioni degli altri cassetti. Converge su una comprensione accurata di una scena attraverso iterazioni, proprio come l'approccio push.

    Per confrontare direttamente il loro nuovo approccio con gli approcci precedenti, l'hanno testato su una semplice scena 2-D di un cerchio con quattro bracci rettangolari nascosti tra uno schema di cerchi e rettangoli simili.

    Gli approcci precedenti richiedevano più di 20 minuti di tempo di elaborazione per iterazione per passare i messaggi, mentre il nuovo metodo del team ha richiesto meno di due minuti, e all'aumentare del numero di credenze o particelle, questo miglioramento diventa esponenzialmente più veloce.

    In queste prove, ci sono volute cinque iterazioni con il loro nuovo algoritmo per ottenere un errore medio inferiore a 3,5 pollici nella stima della posizione dei cassetti e del comò, o errore medio inferiore a 8 pollici nella stima della posizione quando il comò è parzialmente oscurato da una coperta.

    Questo è alla pari con gli approcci precedenti, e varia a seconda delle dimensioni dell'oggetto, numero di parti, e quanto è visibile ai sensori. Più importante, la precisione aumenta abbastanza per la manipolazione di oggetti da parte di un robot attraverso continue iterazioni.

    "Questo è solo l'inizio di ciò che possiamo fare con la propagazione delle credenze nella percezione dei robot, " Desingh ha detto. "Vogliamo scalare il nostro lavoro fino a più oggetti e monitorarli durante l'esecuzione dell'azione, e anche se il robot non sta attualmente guardando un oggetto. Quindi, il robot può usare questa capacità di osservare continuamente il mondo per la manipolazione orientata agli obiettivi e completare con successo le attività."


    © Scienza https://it.scienceaq.com