Credito:Università della California - San Diego
Un team guidato dall'Università della California di San Diego ha sviluppato un nuovo sistema di algoritmi che consente ai robot a quattro zampe di camminare e correre su terreni difficili evitando ostacoli sia statici che mobili.
Nei test, il sistema ha guidato un robot a manovrare in modo autonomo e rapido su superfici sabbiose, ghiaia, erba e colline sterrate ricoperte di rami e foglie cadute senza urtare pali, alberi, arbusti, massi, panchine o persone. Il robot ha anche navigato in un ufficio affollato senza urtare scatole, scrivanie o sedie.
Il lavoro avvicina i ricercatori alla costruzione di robot in grado di eseguire missioni di ricerca e soccorso o raccogliere informazioni in luoghi troppo pericolosi o difficili per l'uomo.
Il team presenterà il proprio lavoro alla Conferenza internazionale 2022 sui robot e sistemi intelligenti (IROS), che si svolgerà dal 23 al 27 ottobre a Kyoto, in Giappone.
Il sistema offre a un robot con le gambe una maggiore versatilità grazie al modo in cui combina il senso della vista del robot con un'altra modalità di rilevamento chiamata propriocezione, che coinvolge il senso di movimento, direzione, velocità, posizione e tatto del robot:in questo caso, la sensazione del terra sotto i suoi piedi.
Attualmente, la maggior parte degli approcci per addestrare i robot con le gambe a camminare e navigare si basano sulla propriocezione o sulla visione, ma non su entrambi allo stesso tempo, ha affermato l'autore senior dello studio Xiaolong Wang, professore di ingegneria elettrica e informatica presso la UC San Diego Jacobs School of Engineering .
"In un caso, è come addestrare un robot cieco a camminare semplicemente toccando e tastando il suolo. E nell'altro, il robot pianifica i movimenti delle gambe basandosi solo sulla vista. Non sta imparando due cose contemporaneamente", ha detto Wang. "Nel nostro lavoro, combiniamo la propriocezione con la visione artificiale per consentire a un robot con le gambe di muoversi in modo efficiente e fluido, evitando gli ostacoli, in una varietà di ambienti difficili, non solo ben definiti".
Il sistema sviluppato da Wang e dal suo team utilizza uno speciale set di algoritmi per fondere i dati delle immagini in tempo reale riprese da una telecamera di profondità sulla testa del robot con i dati dei sensori sulle gambe del robot. Questo non è stato un compito semplice. "Il problema è che durante il funzionamento nel mondo reale, a volte si verifica un leggero ritardo nella ricezione delle immagini dalla fotocamera", ha spiegato Wang, "quindi i dati delle due diverse modalità di rilevamento non arrivano sempre contemporaneamente".
La soluzione del team è stata simulare questa discrepanza randomizzando i due set di input, una tecnica che i ricercatori chiamano randomizzazione del ritardo multimodale. Gli input fusi e randomizzati sono stati quindi utilizzati per formare una politica di apprendimento per rinforzo in modo end-to-end. Questo approccio ha aiutato il robot a prendere decisioni rapidamente durante la navigazione e ad anticipare i cambiamenti nel suo ambiente in anticipo, in modo che potesse muoversi e schivare gli ostacoli più velocemente su diversi tipi di terreno senza l'aiuto di un operatore umano.
Andando avanti, Wang e il suo team stanno lavorando per rendere i robot con le gambe più versatili in modo che possano conquistare terreni ancora più difficili. "In questo momento, possiamo addestrare un robot a eseguire semplici movimenti come camminare, correre ed evitare gli ostacoli. I nostri prossimi obiettivi sono consentire a un robot di salire e scendere le scale, camminare sui sassi, cambiare direzione e saltare gli ostacoli."
Il team ha rilasciato il codice su GitHub e il documento è disponibile su arXiv server di prestampa. + Esplora ulteriormente