• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Utilizzo di sensori tattili e apprendimento automatico per migliorare il modo in cui i robot manipolano i tessuti

    1) Inizialmente ci avviciniamo al tessuto e poi 2) Cerchiamo di afferrare un certo numero di strati di tessuto. Usando il rilevamento tattile, determiniamo se stiamo afferrando il numero corretto di strati e quindi 3) riaggiustiamo il tessuto secondo necessità. Infine, 4) solleviamo il telo con il numero corretto di strati afferrati. Credito:Tirumala et al.

    Negli ultimi anni, i robotici hanno cercato di migliorare il modo in cui i robot interagiscono con diversi oggetti che si trovano nelle ambientazioni del mondo reale. Sebbene alcuni dei loro sforzi abbiano prodotto risultati promettenti, le capacità di manipolazione della maggior parte dei sistemi robotici esistenti sono ancora in ritardo rispetto a quelle degli umani.

    I tessuti sono tra i tipi di oggetti con cui i robot si sono rivelati più difficili con cui interagire. Le ragioni principali di ciò sono che pezzi di stoffa e altri tessuti possono essere allungati, spostati e piegati in diversi modi, il che può provocare dinamiche materiali complesse e auto-occlusioni.

    I ricercatori del Robotics Institute della Carnegie Mellon University hanno recentemente proposto una nuova tecnica computazionale che potrebbe consentire ai robot di comprendere e gestire meglio i tessuti. Questa tecnica, introdotta in un paper che sarà presentato alla International Conference on Intelligent Robots and Systems e pre-pubblicata su arXiv, si basa sull'uso di un sensore tattile e di un semplice algoritmo di apprendimento automatico, noto come classificatore.

    "Siamo interessati alla manipolazione dei tessuti perché i tessuti e gli oggetti deformabili in generale sono difficili da manipolare per i robot, poiché la loro deformabilità significa che possono essere configurati in tanti modi diversi", Daniel Seita, uno dei ricercatori che ha condotto lo studio, ha detto a TechXplore. "Quando abbiamo iniziato questo progetto, sapevamo che c'erano stati molti lavori recenti sui robot che manipolavano il tessuto, ma la maggior parte di quel lavoro riguarda la manipolazione di un singolo pezzo di tessuto. Il nostro articolo affronta le direzioni relativamente meno esplorate dell'apprendimento per manipolare un tessuto mucchio di tessuto utilizzando il rilevamento tattile."

    La maggior parte degli approcci esistenti per consentire la manipolazione dei tessuti nei robot si basano solo sull'uso di sensori di visione, come telecamere o imager che raccolgono solo dati visivi. Sebbene alcuni di questi metodi abbiano ottenuto buoni risultati, la loro dipendenza dai sensori visivi può limitarne l'applicabilità per compiti semplici che implicano la manipolazione di un singolo pezzo di stoffa.

    Il nuovo metodo ideato da Seita e dai suoi colleghi Sashank Tirumala e Thomas Weng, invece, utilizza i dati raccolti da un sensore tattile chiamato ReSkin, che può dedurre informazioni relative alla trama di un materiale e alla sua interazione con l'ambiente. Utilizzando questi dati tattili, il team ha addestrato un classificatore per determinare il numero di strati di tessuto catturati da un robot.

    "I nostri dati tattili provenivano dal sensore ReSkin, che è stato recentemente sviluppato alla CMU l'anno scorso", ha spiegato Weng. "Utilizziamo questo classificatore per regolare l'altezza di una pinza in modo da afferrare uno o due strati di tessuto più in alto da una pila di tessuti."

    Per valutare la loro tecnica, il team ha effettuato 180 prove sperimentali in un ambiente reale, utilizzando un sistema robotico composto da un braccio robotico Franka, una pinza mini-Delta e un sensore Reskin (integrato sul "dito") della pinza per afferrare uno o due pezzi di stoffa in una pila. Il loro approccio ha ottenuto risultati promettenti, superando i metodi di base che non considerano il feedback tattile.

    "Rispetto agli approcci precedenti che utilizzano solo le telecamere, il nostro approccio basato sul rilevamento tattile non è influenzato da modelli sul tessuto, cambiamenti nell'illuminazione e altre discrepanze visive", ha affermato Tirumala. "Siamo stati entusiasti di vedere che il rilevamento tattile da dispositivi elettromagnetici come il sensore ReSkin può fornire un segnale sufficiente per un'attività di manipolazione a grana fine, come afferrare uno o due strati di tessuto. Riteniamo che questo motiverà la ricerca futura sul rilevamento tattile per i tessuti manipolazione da parte di robot."

    In futuro, Tirumala, Weng, Seita e i loro colleghi sperano che questo approccio di manipolazione possa aiutare a migliorare le capacità dei robot progettati per essere implementati negli impianti di produzione di tessuti, nei servizi di lavanderia o nelle case. In particolare, potrebbe migliorare la capacità di questi robot di gestire tessuti complessi, più pezzi di stoffa, biancheria, coperte, vestiti e altri oggetti in tessuto.

    "Il nostro piano è continuare a esplorare l'uso del rilevamento tattile per afferrare un numero arbitrario di strati di tessuto, invece di uno o due strati su cui ci siamo concentrati in questo lavoro", ha aggiunto Weng. "Inoltre, stiamo studiando approcci multimodali che combinano sia la visione che il rilevamento tattile in modo da poter sfruttare i vantaggi di entrambe le modalità del sensore". + Esplora ulteriormente

    Generazione di dati sensoriali cross-modali per la percezione robotica visivo-tattile

    © 2022 Rete Science X




    © Scienza https://it.scienceaq.com