• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • La visione avanzata del robot consente un'interazione più naturale con gli esseri umani

    Credito:Rensselaer Polytechnic Institute

    A occhi spalancati, robot dalla voce pacata di nome Pepper motors intorno all'Intelligent Systems Lab del Rensselaer Polytechnic Institute. Uno dei ricercatori testa Pepper, facendo vari gesti mentre il robot descrive accuratamente ciò che sta facendo. Quando incrocia le braccia, il robot identifica dal suo linguaggio del corpo che qualcosa non va.

    "Hey, sii amichevole con me, "dice Pepe.

    La capacità di Pepper di cogliere segnali non verbali è il risultato della "visione" migliorata che i ricercatori del laboratorio stanno sviluppando. Utilizzando avanzate tecnologie di visione artificiale e intelligenza artificiale, il team sta migliorando la capacità di robot come questo di interagire naturalmente con gli umani.

    "Quello che abbiamo fatto finora è aggiungere capacità di comprensione visiva al robot, quindi può percepire l'azione umana e può interagire naturalmente con gli umani attraverso questi comportamenti non verbali, come i gesti del corpo, espressioni facciali, e la posa del corpo, " disse Qiang Ji, professore di elettricità, computer, e ingegneria dei sistemi, e il direttore dell'Intelligent Systems Lab.

    Con il sostegno dei fondi governativi nel corso degli anni, i ricercatori di Rensselaer hanno mappato il viso e il corpo umano in modo che computer, con l'aiuto di telecamere integrate nei robot e tecnologie di apprendimento automatico, può percepire segnali non verbali e identificare le azioni e le emozioni umane.

    Tra l'altro, Pepper può contare quante persone ci sono in una stanza, scansionare un'area per cercare una persona in particolare, stimare l'età di un individuo, riconoscere le espressioni facciali, e mantenere il contatto visivo durante un'interazione.

    Un altro robot, chiamato Zenone, assomiglia più a una persona e ha dei motori in faccia che lo rendono capace di rispecchiare da vicino l'espressione umana. Il team di ricerca ha affinato la capacità di Zeno di imitare la comunicazione facciale umana in tempo reale fino al movimento delle sopracciglia e persino del bulbo oculare.

    Credito:Rensselaer Polytechnic Institute

    Ji vede la computer vision come il prossimo passo nello sviluppo di tecnologie con cui le persone interagiscono nelle loro case ogni giorno. Attualmente, gli assistenti virtuali abilitati per l'intelligenza artificiale più popolari si basano quasi interamente sulle interazioni vocali.

    "Non c'è una componente visiva. Fondamentalmente, è solo un componente audio, " Ji ha detto. "In futuro, pensiamo che sarà multimodale, con l'interazione sia verbale che non verbale con il robot."

    Il team sta lavorando ad altri sviluppi incentrati sulla visione, come la tecnologia che sarebbe in grado di tracciare il movimento degli occhi. Strumenti del genere potrebbero essere applicati a smartphone e tablet.

    Ji ha affermato che la ricerca condotta nel suo laboratorio è attualmente supportata dalla National Science Foundation e dalla Defense Advanced Research Projects Agency. Inoltre, l'Intelligent Systems Lab ha ricevuto finanziamenti nel corso degli anni da fonti pubbliche e private tra cui il Dipartimento della Difesa degli Stati Uniti, il Dipartimento dei trasporti degli Stati Uniti, e Honda.

    Ciò che il team di Ji sta sviluppando potrebbe essere utilizzato anche per rendere le strade più sicure, Egli ha detto, installando sistemi di visione artificiale nelle auto.

    "Saremo in grado di utilizzare questa tecnologia per rilevare alla fine se il conducente è affaticato, o l'autista è distratto, " ha detto. "La ricerca che stiamo facendo è un'intelligenza artificiale più centrata sull'uomo. Vogliamo sviluppare l'intelligenza artificiale, tecnologia di apprendimento automatico, estendere non solo le capacità fisiche dell'uomo, ma anche le loro capacità cognitive».

    È qui che entrano in gioco Pepper e Zeno. Ji immagina un momento in cui i robot potrebbero tenere compagnia agli umani e migliorare le loro vite. Ha detto che questo è l'obiettivo finale.

    "Questo robot potrebbe essere un compagno per gli umani in futuro, "Ji ha detto, indicando Pepe. "Potrebbe ascoltare gli umani, comprendere le emozioni umane, e rispondere attraverso comportamenti sia verbali che non verbali per soddisfare i bisogni degli umani".


    © Scienza https://it.scienceaq.com