• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Controllare i robot con onde cerebrali e gesti delle mani

    Monitorando l'attività cerebrale, il sistema è in grado di rilevare in tempo reale se una persona nota un errore mentre un robot esegue un'operazione. Credito:MIT CSAIL

    Fare in modo che i robot facciano le cose non è facile:di solito gli scienziati devono programmarli esplicitamente o fargli capire come gli umani comunicano attraverso il linguaggio.

    Ma se potessimo controllare i robot in modo più intuitivo, usando solo gesti delle mani e onde cerebrali?

    Un nuovo sistema guidato dai ricercatori del Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT mira a fare esattamente questo, consentendo agli utenti di correggere istantaneamente gli errori del robot con nient'altro che segnali cerebrali e il tocco di un dito.

    Basandosi sul lavoro passato del team incentrato su semplici attività di scelta binaria, il nuovo lavoro amplia il campo di applicazione a compiti a scelta multipla, aprendo nuove possibilità al modo in cui i lavoratori umani potrebbero gestire squadre di robot.

    Monitorando l'attività cerebrale, il sistema è in grado di rilevare in tempo reale se una persona nota un errore mentre un robot esegue un'operazione. Utilizzando un'interfaccia che misura l'attività muscolare, la persona può quindi fare gesti con le mani per scorrere e selezionare l'opzione corretta per l'esecuzione del robot.

    Il team ha dimostrato il sistema in un compito in cui un robot sposta un trapano elettrico su uno dei tre possibili bersagli sul corpo di un aereo simulato. È importante sottolineare che hanno dimostrato che il sistema funziona su persone mai viste prima, il che significa che le organizzazioni potrebbero implementarlo in contesti reali senza bisogno di addestrarlo sugli utenti.

    "Questo lavoro che combina il feedback EEG e EMG consente interazioni naturali uomo-robot per un insieme di applicazioni più ampio di quello che siamo stati in grado di fare prima di utilizzare solo il feedback EEG, " afferma la direttrice CSAIL Daniela Rus, che ha curato i lavori. "Includendo il feedback muscolare, possiamo usare i gesti per comandare spazialmente il robot, con molte più sfumature e specificità."

    dottorato di ricerca il candidato Joseph DelPreto è stato autore principale di un documento sul progetto insieme a Rus, ex socio postdottorato CSAIL Andres F. Salazar-Gomez, l'ex ricercatrice CSAIL Stephanie Gil, ricercatore Ramin M. Hasani, e il professore della Boston University Frank H. Guenther. Il documento sarà presentato alla conferenza Robotics:Science and Systems (RSS) che si terrà a Pittsburgh la prossima settimana.

    Interazione intuitiva uomo-robot

    Nella maggior parte dei lavori precedenti, i sistemi potrebbero generalmente riconoscere i segnali cerebrali solo quando le persone si sono addestrate a "pensare" in modi molto specifici ma arbitrari e quando il sistema è stato addestrato su tali segnali. Ad esempio, un operatore umano potrebbe dover guardare diversi display luminosi che corrispondono a diverse attività del robot durante una sessione di addestramento.

    Non sorprendentemente, tali approcci sono difficili da gestire in modo affidabile per le persone, soprattutto se lavorano in campi come l'edilizia o la navigazione che richiedono già un'intensa concentrazione.

    Nel frattempo, Il team di Rus ha sfruttato la potenza dei segnali cerebrali chiamati "potenziali correlati all'errore" (ErrP), che i ricercatori hanno scoperto che si verificano naturalmente quando le persone notano errori. Se c'è un ErrP, il sistema si ferma in modo che l'utente possa correggerlo; altrimenti, va avanti.

    "La cosa fantastica di questo approccio è che non è necessario addestrare gli utenti a pensare in un modo prestabilito, " dice DelPreto. "La macchina si adatta a te, e non viceversa".

    Per il progetto il team ha utilizzato "Baxter", un robot umanoide di Rethink Robotics. Con la supervisione umana, il robot è passato dalla scelta dell'obiettivo corretto il 70% delle volte a più del 97 percento delle volte.

    Per creare il sistema, il team ha sfruttato la potenza dell'elettroencefalografia (EEG) per l'attività cerebrale e dell'elettromiografia (EMG) per l'attività muscolare, mettendo una serie di elettrodi sul cuoio capelluto e sull'avambraccio degli utenti.

    Entrambe le metriche presentano alcune carenze individuali:i segnali EEG non sono sempre rilevabili in modo affidabile, mentre i segnali EMG a volte possono essere difficili da mappare su movimenti che sono più specifici di "sposta a sinistra oa destra". Unendo i due, però, consente un biorilevamento più robusto e consente al sistema di funzionare su nuovi utenti senza formazione.

    "Osservando sia i segnali muscolari che quelli cerebrali, possiamo iniziare a cogliere i gesti naturali di una persona insieme alle loro decisioni rapide sul fatto che qualcosa stia andando storto, " dice DelPreto. "Questo aiuta a comunicare con un robot più simile a comunicare con un'altra persona."

    Il team afferma che potrebbero immaginare che un giorno il sistema possa essere utile per gli anziani, o lavoratori con disturbi del linguaggio o mobilità ridotta.

    "Vorremmo allontanarci da un mondo in cui le persone devono adattarsi ai vincoli delle macchine, " dice Rus. "Approcci come questo mostrano che è molto possibile sviluppare sistemi robotici che siano un'estensione più naturale e intuitiva di noi".


    © Scienza https://it.scienceaq.com