I ricercatori Jared Johansen (a sinistra) e Thomas Ilyevsky (a destra) valutano il robot autonomo, Hosh, revisione dei sistemi operativi nell'ambiente. Il robot localizzerà autonomamente una stanza, edificio o individuo attraverso la sua visione integrativa e il suo software linguistico. Credito:Hope Sale / immagine della Purdue Research Foundation
I ricercatori della Purdue University della School of Electrical and Computer Engineering stanno sviluppando un software di linguaggio e visione integrativo che potrebbe consentire a un robot autonomo di interagire con persone in ambienti diversi e raggiungere obiettivi di navigazione.
"L'obiettivo generale del progetto è dire al robot di trovare una persona in particolare, stanza o edificio e far interagire il robot con l'ordinario, persone non addestrate a chiedere in un linguaggio naturale indicazioni verso un luogo particolare, " ha detto Jeffrey Mark Siskind, un professore associato che guida il gruppo di ricerca. "Per svolgere questo compito, il robot deve operare in sicurezza in presenza di persone, incoraggiarli a fornire indicazioni e utilizzare le loro informazioni per trovare l'obiettivo".
I dottorandi Thomas Ilyevsky e Jared Johansen stanno lavorando con Siskind per sviluppare un robot chiamato Hosh in grado di integrare dati grafici e linguistici nel suo processo di navigazione al fine di localizzare un luogo o una persona specifici. Il team sta sviluppando il robot grazie a una sovvenzione finanziata dalla National Robotics Initiative della National Science Foundation.
Questo robot potrebbe aiutare le auto a guida autonoma a comunicare con passeggeri e pedoni o potrebbe completare attività su piccola scala in un luogo di lavoro come la consegna della posta. Il robot contribuirebbe alla prevista crescita di 14 miliardi di dollari dell'industria della robotica di consumo entro il 2025, come previsto dal Boston Consulting Group.
Il robot riceverà un compito per individuare una stanza specifica, edificio o individuo in un luogo noto o sconosciuto. Quindi, il robot unirà un nuovo linguaggio e un'elaborazione visiva per navigare nell'ambiente, chiedere indicazioni, richiedere l'apertura di porte o la pressione dei pulsanti dell'ascensore e raggiungere il suo obiettivo.
I ricercatori stanno sviluppando un software di alto livello per dare al robot "conoscenza di buon senso, " la capacità di comprendere oggetti e ambienti con intuizione a livello umano, consentendogli di riconoscere le convenzioni di navigazione. Per esempio, il robot incorporerà sia dichiarazioni vocali che gesti fisici nel suo processo di navigazione.
Il robot autonomo, chiamato Hosh, navigherà negli ambienti e interagirà con le persone. Nella foto in alto è mostrato il display del computer del robot che include una mappa, vista della telecamera e software operativo aggiuntivo. Il fondo mostra i ricercatori Jeffrey Mark Siskind (a sinistra), Thomas Ilyevsky (al centro) e Jared Johansen (a destra) attraverso la visione artificiale del robot. Credito:Hope Sale / immagine della Purdue Research Foundation
"Il robot ha bisogno dell'intuizione a livello umano per comprendere le convenzioni di navigazione, " Disse Ilyevsky. "È qui che entra in gioco la conoscenza del buon senso. Il robot dovrebbe sapere che le stanze dispari e pari si trovano l'una di fronte all'altra in un corridoio o che la stanza 317 dovrebbe essere al terzo piano dell'edificio".
Per sviluppare la conoscenza del buon senso del robot, le ricerche svilupperanno l'elaborazione integrativa del linguaggio naturale e software di visione artificiale. Tipicamente, l'elaborazione del linguaggio naturale consentirà al robot di comunicare con le persone mentre il software di visione artificiale consentirà al robot di navigare nel suo ambiente. Però, i ricercatori stanno facendo avanzare il software per informarsi a vicenda mentre il robot si muove.
"Il robot deve comprendere il linguaggio in un contesto visivo e la visione in un contesto linguistico, " Ha detto Siskind. "Per esempio, durante l'individuazione di una persona specifica, il robot potrebbe ricevere informazioni in un commento o in un gesto fisico e deve comprendere entrambi nel contesto dei suoi obiettivi di navigazione."
Ad esempio, se la risposta è "Controlla quella persona nella stanza 300, " il robot dovrà elaborare l'affermazione in un contesto visivo e identificare in quale stanza si trova attualmente e il percorso migliore per raggiungere la stanza 300. Se la risposta è "Quella persona è laggiù" con un segnale fisico, il robot dovrà integrare il segnale visivo con il significato dell'affermazione per identificare la Persona A.
"L'interazione con gli umani è un problema irrisolto nell'intelligenza artificiale, " ha detto Johansen. "Per questo progetto, stiamo cercando di aiutare il robot a comprendere alcune convenzioni in cui potrebbe imbattersi o ad anticipare che una dozzina di risposte diverse potrebbero avere tutte lo stesso significato".
"Ci aspettiamo che questa tecnologia sia davvero grande, perché l'industria dei robot autonomi e delle auto a guida autonoma sta diventando molto grande, " Ha detto Siskind. "La tecnologia potrebbe essere adattata alle auto a guida autonoma, consentire alle auto di chiedere indicazioni stradali o ai passeggeri di richiedere una destinazione specifica, proprio come fanno i conducenti umani".
I ricercatori prevedono di inviare il robot in missioni autonome con complessità crescente man mano che la tecnologia progredisce. Primo, il robot imparerà a navigare all'interno di un unico piano. Quindi, per spostarsi su altri piani ed edifici, chiederà alle persone di azionare l'ascensore o di aprire le porte. I ricercatori sperano di passare a missioni all'aperto in primavera.