Credito:CC0 Dominio Pubblico
Si potrebbe insegnare ai robot a riconoscere le emozioni umane dai nostri movimenti, mostra un nuovo studio.
I ricercatori hanno scoperto che gli esseri umani possono riconoscere l'eccitazione, tristezza, aggressione, e noia dal modo in cui la gente si muoveva, anche se non potevano vedere le loro espressioni facciali o sentire la loro voce.
Le loro scoperte suggeriscono che i robot potrebbero imparare a usare gli stessi movimenti, insieme alle espressioni facciali e al tono di voce, riconoscere gli stati interni dell'uomo.
Aumenta la prospettiva che i robot, già abituato all'insegnamento delle seconde lingue, potrebbe riconoscere quando gli studenti sono annoiati, e i robot del servizio clienti potrebbero identificare quando le persone si sentono arrabbiate o stressate.
Dott.ssa Charlotte Edmunds, della Warwick Business School, ha dichiarato:"Uno degli obiettivi principali nel campo dell'interazione uomo-robot è creare macchine in grado di riconoscere le emozioni umane e rispondere di conseguenza.
"I nostri risultati suggeriscono che è ragionevole aspettarsi un algoritmo di apprendimento automatico, e di conseguenza un robot, riconoscere una gamma di emozioni e interazioni sociali usando i movimenti, pose, ed espressioni facciali. Le potenziali applicazioni sono enormi".
Lo studio è stato condotto da ricercatori della Warwick Business School, Università di Plymouth, Donders Centre for Cognition presso la Radboud University nei Paesi Bassi, e il Bristol Robotics Lab presso l'Università dell'Inghilterra occidentale. È pubblicato sulla rivista Frontiere della Robotica e dell'AI .
Il team di psicologi e informatici ha filmato coppie di bambini che giocavano con un robot e un computer integrato in un tavolo con parte superiore touchscreen.
I video sono stati mostrati a 284 partecipanti allo studio, a cui è stato chiesto di decidere se i bambini erano eccitati, annoiato, o triste. È stato anche chiesto loro se i bambini stavano collaborando, competere, o se uno dei figli aveva assunto un ruolo dominante nella relazione.
Alcuni partecipanti hanno guardato i video originali. Un secondo gruppo ha visto il filmato ridotto a figure di "stickman" che mostravano esattamente gli stessi movimenti.
I membri di entrambi i gruppi hanno concordato sulla stessa etichetta emotiva per i bambini, più spesso di quanto ci si aspetterebbe se indovinassero.
I ricercatori hanno quindi addestrato un algoritmo di apprendimento automatico per etichettare le clip, identificare il tipo di interazione sociale, le emozioni in mostra, e la forza dello stato interno di ogni bambino, permettendogli di confrontare quale bambino si sentiva più triste o eccitato.
Il Dr. Edmunds ha dichiarato:"I servizi di consegna di robot sono già in fase di sperimentazione, ma le persone tendono ad attaccarli o vandalizzarli, spesso perché si sentono minacciati.
"L'obiettivo è creare un robot in grado di reagire alle emozioni umane in situazioni difficili e tirarsi fuori dai guai senza dover essere monitorato o dire cosa fare.
"Questo non succede al momento, perché i robot tendono a seguire gli script."
Madeleine Bartlett, dell'Università di Plymouth, ha detto:"È importante che un robot sociale possa riconoscere gli stati interni umani, come lo stress, e la loro forza o severità.
"Diversi livelli di stress richiedono risposte diverse. Lo stress di basso livello potrebbe semplicemente richiedere che il robot si allontani dall'essere umano, mentre un alto livello di stress potrebbe essere affrontato al meglio chiedendo al robot di scusarsi e lasciare l'interazione."