• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Un algoritmo per insegnare ai robot strategie di manipolazione pre-afferramento

    Credito:Berscheid, Meissner &Kröger.

    Quando gli esseri umani si allungano per afferrare un dato oggetto, spesso hanno bisogno di spingere via il disordine per isolarlo e assicurarsi che ci sia abbastanza spazio per raccoglierlo. Anche se gli umani non sono sempre pienamente consapevoli di farlo, questa strategia, noto come "manipolazione pre-afferramento, " consente loro di afferrare gli oggetti in modo più efficiente.

    Negli ultimi anni, diversi ricercatori hanno cercato di riprodurre strategie di manipolazione umana nei robot, ancora meno studi si sono concentrati sulla manipolazione pre-afferramento. Con questo in testa, un team di ricercatori del Karlsruhe Institute of Technology (KIT) ha recentemente sviluppato un algoritmo che può essere utilizzato per addestrare i robot su strategie di manipolazione sia di presa che di pre-afferramento. Questo nuovo approccio è stato presentato in un documento pre-pubblicato su arXiv.

    "Mentre l'afferrare è un compito ben compreso nella robotica, la manipolazione mirata pre-afferramento è ancora molto impegnativa, "Lars Berscheid, uno dei ricercatori che ha condotto lo studio, ha detto a TechXplore. "Questo rende molto difficile per i robot afferrare oggetti da spazi ingombranti o ristretti in questo momento. Tuttavia, con le recenti innovazioni nell'apprendimento automatico e robotico, i robot possono imparare a risolvere vari compiti interagendo con il suo ambiente. In questo studio, volevamo applicare un approccio che abbiamo presentato nel nostro lavoro precedente non solo per afferrare, ma anche alla manipolazione pre-afferramento."

    Credito:Berscheid, Meissner &Kröger.

    Quando un robot sta imparando come completare un determinato compito, ha essenzialmente bisogno di capire come risolvere un problema massimizzando le sue ricompense. Nel loro studio, i ricercatori si sono concentrati su un compito che prevedeva la presa di oggetti da un cestino riempito in modo casuale.

    Il robot è stato addestrato su come afferrare oggetti per circa 80 ore, utilizzando l'input da una telecamera e il feedback dalla sua pinza. Quando ha tenuto con successo un oggetto nella sua pinza robotica, ha ottenuto una ricompensa. L'algoritmo sviluppato da Berscheid e dai suoi colleghi migliora ulteriormente l'addestramento del robot, permettendogli di acquisire anche utili strategie di manipolazione pre-afferramento, come lo spostamento o la spinta.

    "L'idea chiave del nostro lavoro era estendere le azioni di presa introducendo ulteriori movimenti di spostamento o spinta, " ha spiegato Berscheid. "Il robot può quindi decidere quale azione applicare nelle diverse situazioni. L'addestramento dei robot in realtà è molto complicato:in primo luogo, ci vuole molto tempo, quindi la formazione stessa deve essere automatizzata e auto-controllata, e in secondo luogo possono accadere molte cose inaspettate se il robot esplora il suo ambiente. Simile ad altre tecniche di apprendimento automatico, l'apprendimento del robot è sempre limitato dal consumo di dati. In altre parole, il nostro lavoro è collegato a due domande di ricerca molto impegnative:come può un robot imparare il più velocemente possibile e quali compiti può imparare un robot utilizzando le intuizioni scoperte?"

    Credito:Berscheid, Meissner &Kröger.

    Come Berscheid continua a spiegare, un robot può apprendere in modo più efficiente se riceve un feedback diretto dopo ogni azione che esegue, in quanto questo supera il problema delle ricompense sparse. In altre parole, più feedback viene fornito a un robot (cioè più ricompense riceve per azioni di successo), più velocemente ed efficacemente impara come completare un determinato compito.

    "Questo sembra facile, ma a volte è difficile da implementare:ad esempio, come si definisce la qualità di una manipolazione pre-afferramento?", ha detto Berscheid.

    L'approccio proposto dai ricercatori si basa su uno studio precedente che ha studiato l'uso delle differenze nella comprensione delle probabilità prima e dopo una particolare azione, concentrandosi su una piccola area intorno a dove viene eseguita l'azione. Nel loro nuovo studio, Berscheid e i suoi colleghi hanno anche cercato di scoprire le azioni che un robot dovrebbe cercare di apprendere il più velocemente possibile.

    Credito:Berscheid, Meissner &Kröger.

    "Questo è il noto problema dell'esplorazione nell'apprendimento dei robot, " ha spiegato Berscheid. "Noi definiamo una strategia di esplorazione che massimizza l'autoinformazione o riduce al minimo l'incertezza delle azioni e può essere calcolata in modo molto efficiente".

    L'algoritmo presentato dai ricercatori consente a un robot di apprendere la posa ottimale per azioni di pre-afferramento come il bloccaggio o lo spostamento, così come come eseguire queste azioni per aumentare la probabilità di successo della presa. Il loro approccio rende un'azione particolare (cioè lo spostamento) dipendente dall'altra (cioè l'afferrare), che in definitiva elimina la necessità di ricompense sparse e consente un apprendimento più efficiente.

    I ricercatori hanno applicato il loro algoritmo a un braccio robotico Franka e poi hanno valutato le sue prestazioni su un compito che prevede il prelievo di oggetti da un cestino fino a quando non è completamente vuoto. Hanno addestrato il sistema usando 25, 000 diverse prese e 2, 500 azioni di cambio. I loro risultati sono stati molto promettenti, con il braccio robotico che afferra e lima con successo entrambi gli oggetti con cui aveva familiarità e altri che non aveva mai incontrato prima.

    Credito:Berscheid, Meissner &Kröger.

    "Trovo che due risultati del nostro lavoro siano particolarmente entusiasmanti, " ha detto Berscheid. "In primo luogo, pensiamo che questo lavoro mostri davvero la capacità di apprendimento dei robot. Invece di programmare come fare qualcosa, diciamo al robot cosa fare e deve capire come farlo da solo. A questo proposito, siamo stati in grado di applicare e generalizzare i metodi che abbiamo sviluppato per afferrare verso la manipolazione pre-afferramento. In secondo luogo e di più rilevanza pratica, questo potrebbe essere molto utile nell'automazione di molte attività industriali, in particolare per il bin picking, dove il robot dovrebbe essere in grado di svuotare completamente il cestino da solo."

    Nel futuro, l'approccio sviluppato da Berscheid e dai suoi colleghi potrebbe essere applicato ad altre piattaforme robotiche, migliorare le loro capacità di manipolazione pre-afferramento e presa. I ricercatori stanno ora pianificando di condurre ulteriori studi esplorando altre questioni di ricerca.

    Ad esempio, finora il loro approccio consente solo al braccio robotico di Frank di afferrare gli oggetti con una mano eretta, utilizzando le cosiddette 'prese planari'. I ricercatori vorrebbero estendere il loro algoritmo per consentire anche le prese laterali, introducendo più parametri e utilizzando dati di training aggiuntivi. Secondo Berscheid, la sfida principale quando si cerca di raggiungere questo obiettivo sarà garantire che il robot acquisisca prese laterali mantenendo costante il numero di tentativi di presa che esegue durante la fase di addestramento.

    "Inoltre, afferrare oggetti è spesso parte di un compito di alto livello, per esempio. vogliamo posizionare l'oggetto in una posizione specifica, " ha detto Berscheid. "Come possiamo posizionare un oggetto sconosciuto con precisione? Penso che la risposta a questa domanda sia molto importante per affrontare sia applicazioni industriali che nuove nella robotica di servizio. Nel nostro progetto vogliamo mantenere l'attenzione sull'apprendimento dei robot nel mondo reale, colmare il divario tra gli esempi di giocattoli nella ricerca e le complesse applicazioni del mondo reale."

    © 2019 Scienza X Rete




    © Scienza https://it.scienceaq.com