• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Un braccio robotico che segue il viso con rilevamento delle emozioni

    Il robot che segue il viso sviluppato da Albayeros Duarte. Credito:Albayeros Duarte &Vilariño.

    I ricercatori dell'Universitat Autònoma de Barcelona (UAB) hanno recentemente sviluppato un braccio robotico che segue il viso con rilevamento delle emozioni ispirato alla lampada Luxo Jr. di Pixar Animation Studios. Questo robot è stato presentato da Vernon Stanley Albayeros Duarte, laureato in informatica presso UAB, nella sua tesi finale.

    "L'idea alla base del nostro robot si basa in gran parte sui pantaloncini della lampada Luxo Jr. di Pixar, " Albayeros Duarte ha detto a TechXplore. "Volevo costruire un robot che imitasse il comportamento della lampada nei cortometraggi. Sono molto interessato alla scena dei maker e mi occupo di stampa 3D da alcuni anni, quindi ho deciso di costruire una sorta di "animale domestico" per dimostrare alcune interessanti interazioni uomo-macchina. È da qui che deriva l'intero tema del "rilevamento del volto/rilevamento delle emozioni", poiché far saltare la lampada come quelle dei cortometraggi Pixar si è rivelato molto difficile da implementare, ma ha comunque mantenuto l'atmosfera da "pet-toy" del progetto."

    Poiché questo studio faceva parte dei corsi di Albayeros Duarte, doveva soddisfare determinati requisiti delineati da UAB. Ad esempio, l'obiettivo principale della tesi era far conoscere agli studenti i servizi cloud di Google e come questi possono essere utilizzati per scaricare risorse di elaborazione in progetti che non sono computazionalmente potenti per loro.

    Raspberry Pi è un computer piccolo e conveniente, che ha notevoli limitazioni computazionali. Queste limitazioni lo rendono il candidato perfetto per esplorare l'uso della piattaforma cloud di Google per attività computazionalmente intensive, come il rilevamento delle emozioni.

    Albayeros Duarte ha quindi deciso di utilizzare un Raspberry Pi per sviluppare un piccolo robot con capacità di rilevamento delle emozioni. Il corpo principale del suo robot è LittleArm 2C, un braccio robotico creato dal fondatore di Slant Concepts, Gabe Bentz.

    "Ho contattato Slant Concepts per chiedere il permesso di modificare il loro braccio robotico in modo che potesse contenere una telecamera alla fine, quindi ho creato la custodia dell'elettronica e la base me stesso, "Ha detto Albayeros Duarte.

    Il robot disegnato da Albayeros Duarte 'spazza' una telecamera da sinistra a destra, acquisizione di una foto e utilizzo di OpenCV, una libreria di funzioni di programmazione che viene spesso utilizzata per applicazioni di visione artificiale, per rilevare un volto all'interno della sua cornice. Quando il robot raggiunge l'estremità di entrambi i lati, alza o abbassa la telecamera di un paio di gradi e riprende il suo ampio movimento.

    Il robot che segue il viso sviluppato da Albayeros Duarte. Credito:Albayeros Duarte &Vilariño.

    "Quando trova un volto, il robot interrompe il movimento di spazzamento e controlla se il viso rimane nel campo visivo per più di una manciata di fotogrammi, " Ha spiegato Albayeros Duarte. "Questo assicura che non 'giochi' con falsi positivi nel rilevamento del volto. Se il robot conferma di aver effettivamente trovato un volto, passa alla parte "face following" dell'algoritmo, dove cerca di mantenere la faccia centrata nel suo campo visivo. Per fare questo, si sposta e si inclina in base ai movimenti della persona che sta osservando."

    Mentre il robot segue i movimenti della persona nel suo campo visivo, scatta una foto del loro viso e la invia all'API Cloud Vision di Google. La piattaforma di Google analizza successivamente l'immagine e rileva lo stato emotivo attuale della persona in essa contenuta, classificandolo come uno dei 5 stati emotivi:gioia, rabbia, tristezza, sorpresa o neutrale.

    "Quando il robot riceve i risultati di questa analisi, imita qualsiasi stato emotivo in cui si trova l'utente, " Disse Albayeros Duarte. "Per la gioia salta un po', per la rabbia scuote leggermente la testa in segno di disapprovazione, per il dolore si abbassa a terra e ti guarda, e per sorpresa si muove all'indietro. Il robot ha anche un anello LED in grado di offrire la gamma completa di colori RGB, che utilizza per completare queste azioni."

    A seconda dell'emozione che rileva, il 'comportamento di spazzamento' del robot cambia. Se rileva la gioia, spazza un po' più velocemente, per rabbia si muove il più velocemente possibile (senza compromettere la qualità del suo rilevamento del volto), per il dolore spazza in una posizione verso il basso o 'cadente' e per la sorpresa si scuote a caso mentre spazza. In ciascuna di queste "modalità", il robot fa lampeggiare diversi colori sul suo anello LED RGB:giallo e colori caldi per la gioia, rosso vivo per la rabbia, colori blu e freddi per il dolore e un mix di giallo e verde per la sorpresa.

    "Credo che ci sia un enorme potenziale non sfruttato per i robot 'simili agli animali domestici', "Ha detto Albayeros Duarte. "Dal rendere gli assistenti personali come Alexa di Amazon e l'Assistente Google più interattivi e naturali, per aiutare potenzialmente le persone disabili a diventare più autosufficienti attraverso il loro aiuto, avere un robot che risponde al tuo stato emotivo attuale può avere un enorme impatto sulla percezione di questi dispositivi. Ad esempio, un assistente per anziani in grado di riconoscere il disagio emotivo potrebbe inviare avvisi tempestivi in ​​caso di necessità di assistenza sanitaria, mentre un robot utilizzato per aiutare a sviluppare le capacità motorie nei bambini con problemi di movimento potrebbe rilevare se il bambino sta perdendo interesse o sta diventando più coinvolto in un'attività e adattare la sua difficoltà di conseguenza".

    Oltre ad essere un ottimo esempio di come la piattaforma cloud di Google può essere utilizzata per scaricare risorse computazionali, Il progetto di Albayeros Duarte prevede una serie di modelli per la stampa 3D che potrebbero essere utilizzati per riprodurre il suo robot o crearne adattamenti, insieme alla distinta dei materiali necessari. Al momento, il ricercatore sta anche collaborando con Fernando Vilariño, Associate Director presso il Computer Vision Center (CVC) e Presidente della European Network of Living Labs (ENoLL), su un progetto volto a ispirare le giovani generazioni a intraprendere una carriera nelle STEM, così come sulla costruzione della comunità di elaborazione fisica presso UAB, rivolgendosi a tutti coloro interessati a creare i propri progetti.

    "Siamo stati allo Youth Mobile Festival di Barcellona, un Mobile World Congress (MWC) orientato ai giovani, organizzato dalle stesse persone del MWC, " Ha detto Albayeros Duarte. "Immergere le dita dei piedi in robot interattivi come questo è un buon modo per costruire qualcosa che attiri immediatamente l'attenzione dei gruppi scolastici in questi eventi e ci insegni di più sulla robotica a livello di consumatore, al contrario della robotica di livello industriale."

    © 2019 Scienza X Rete




    © Scienza https://it.scienceaq.com