Credito:Arrichello et al.
Ricercatori dell'Università di Cassino e del Lazio Meridionale, in Italia, hanno recentemente sviluppato un'architettura all'avanguardia che consente il funzionamento di un robot di assistenza tramite un'interfaccia cervello-computer basata su P300 (BCI). Questa architettura, presentato in un articolo pre-pubblicato su arXiv, potrebbe finalmente consentire alle persone con gravi disabilità motorie di svolgere compiti di manipolazione, semplificando così la loro vita.
Il sistema sviluppato dai ricercatori si basa su un manipolatore robot leggero. Essenzialmente, questo manipolatore riceve comandi di alto livello dagli utenti tramite un BCI basato sul paradigma P300. Nelle neuroscienze, Le onde P300 sono risposte suscitate dal cervello di un essere umano durante il processo decisionale.
"L'obiettivo principale del nostro lavoro era realizzare un sistema che permettesse agli utenti di generare direttive di alto livello per manipolatori robotici attraverso interfacce cervello-computer (BCI), "Filippo Arrichello, uno dei ricercatori che ha condotto lo studio, ha detto a TechXplore. "Tali direttive vengono poi tradotte in comandi di movimento per il manipolatore robotico che esegue autonomamente il compito assegnato, garantendo la sicurezza dell'utente."
L'architettura sviluppata dai ricercatori ha tre componenti chiave:un dispositivo P300 BCI, un robot di assistenza e un sistema di percezione. Arrichiello e i suoi colleghi hanno integrato questi tre elementi in un ambiente ROS, un rinomato middleware software per applicazioni di robotica.
Il primo componente dell'architettura, il dispositivo P300 BCI, misura l'attività elettrica nel cervello tramite elettroencefalografia (EEG). Quindi traduce questi segnali cerebrali in comandi che possono essere inviati a un computer.
"Il paradigma P300 per BCI utilizza la reazione del cervello dell'utente agli stimoli esterni, ovvero lampeggiamento di icone su uno schermo, per consentire all'utente di selezionare un elemento sullo schermo reagendo (ad esempio, contando) ogni volta che l'icona desiderata lampeggia, " ha spiegato Arrichiello. "Questo permette all'utente di effettuare una serie di scelte tra un insieme di elementi predefiniti e di costruire messaggi di alto livello per il robot riguardanti l'azione da compiere, come la manipolazione di un oggetto."
Per eseguire le azioni desiderate dagli utenti, i ricercatori hanno utilizzato un manipolatore robotico leggero chiamato Kinova Jaco. Il software di controllo di questo robot assistivo riceve le direttive di alto livello generate dall'utente tramite il BCI e le traduce in comandi di movimento. Il suo movimento è controllato tramite un algoritmo cinematico inverso ad anello chiuso in grado di gestire contemporaneamente diverse attività.
Credito:Arrichello et al.
Credito:Arrichello et al.
"L'architettura di controllo che abbiamo sviluppato consente al robot di raggiungere obiettivi multipli e prioritari, cioè., raggiungere il compito di manipolazione evitando la collisione con l'utente e/o con ostacoli esterni, e pur rispettando vincoli come i limiti meccanici del robot, "disse Arrichello.
Il componente finale dell'architettura ideata da Arrichiello e dai suoi colleghi è un sistema di percezione che si basa su un sensore RGB-D (ovvero, un Microsoft Kinect One), tra l'altro. Il sistema utilizza il sensore Kinect One per rilevare e localizzare gli oggetti che devono essere manipolati dal robot all'interno dell'area di lavoro. Il sensore può anche rilevare il volto di un utente, stimare la posizione della sua bocca e riconoscere gli ostacoli.
"Le implicazioni pratiche del nostro studio sono piuttosto semplici e ambiziose, "Il suo obiettivo finale è quello di andare nella direzione della costruzione di un sistema robotico affidabile ed efficace che possa finalmente aiutare gli utenti con gravi disabilità motorie a svolgere le operazioni della vita quotidiana in modo autonomo e senza il supporto costante di un caregiver".
Quando i ricercatori hanno iniziato a lavorare allo sviluppo di un robot di assistenza alimentato da un BCI, hanno prima sperimentato un sistema composto da un singolo manipolatore a base fissa che riconosce gli oggetti tramite marker e con un'interfaccia utente preconfigurata. Ora hanno avanzato considerevolmente questa architettura, al punto da consentire agli utenti di gestire sistemi robotici più complessi, come i robot mobili con doppio braccio.
Credito:Arrichello et al.
Credito:Arrichello et al.
"Abbiamo anche migliorato il modulo di percezione, che ora può riconoscere e localizzare gli oggetti in base alle loro forme, » spiegò Arrichiello. «Finalmente, abbiamo lavorato sull'interazione tra il modulo di percezione e l'interfaccia utente grafica (GUI) per creare dinamiche GUI in accordo con i rilevamenti del modulo di percezione (ad es. l'interfaccia utente viene aggiornata in base al numero e al tipo di oggetti riconosciuti su un tavolo dal modulo di percezione)."
Per valutare le prestazioni e l'efficacia della loro architettura, Arrichiello e i suoi colleghi hanno effettuato una serie di esperimenti preliminari, ottenendo risultati molto promettenti. Nel futuro, il loro sistema potrebbe cambiare la vita delle persone affette da disabilità motorie e lesioni fisiche, consentendo loro di completare un'ampia varietà di attività di manipolazione.
"La ricerca futura sarà in primo luogo finalizzata a migliorare la robustezza e l'affidabilità dell'architettura, oltre ad aumentare il dominio di applicazione del sistema, — disse Arrichiello. — Inoltre, testeremo diversi paradigmi BCI, cioè un modo diverso di utilizzare il BCI rispetto a quelli basati sull'immaginario motorio, al fine di individuare quello più idoneo per applicazioni di teleoperazione, dove l'utente può controllare il robot utilizzando il BCI come una sorta di joystick, senza limitare il comando di movimento impartibile ai robot a un insieme predefinito."
© 2019 Scienza X Rete