• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Il simulatore di attività potrebbe insegnare ai robot compiti come preparare il caffè o apparecchiare la tavola

    L'agente AI che prepara la tavola. Credito:MIT CSAIL

    Per molte persone, le faccende domestiche sono temute, parte inevitabile della vita che spesso rimandiamo o facciamo con poca cura, ma cosa accadrebbe se una cameriera robot potesse aiutare ad alleggerire il carico?

    Recentemente, gli informatici hanno lavorato per insegnare alle macchine a svolgere una gamma più ampia di compiti in casa. In un nuovo documento guidato dal Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT e dall'Università di Toronto, ricercatori dimostrano "VirtualHome, " un sistema in grado di simulare compiti domestici dettagliati e poi farli eseguire da "agenti" artificiali, aprendo la possibilità di insegnare un giorno ai robot a svolgere tali compiti.

    Il team ha addestrato il sistema utilizzando quasi 3, 000 programmi di varie attività, che sono ulteriormente suddivise in sottoattività che il computer può comprendere. Un compito semplice come "fare il caffè, " Per esempio, includerebbe anche il passaggio "prendere una tazza". I ricercatori hanno dimostrato VirtualHome in un mondo 3D ispirato al videogioco di Sims.

    L'agente AI del team può eseguire 1, 000 di queste interazioni nel mondo in stile Sims, con otto diverse scene tra cui un soggiorno, cucina, sala da pranzo, Camera da letto, e ufficio a casa.

    "Descrivere le azioni come programmi per computer ha il vantaggio di fornire descrizioni chiare e univoche di tutti i passaggi necessari per completare un'attività, " dice il dottorando Xavier Puig, che era l'autore principale della carta. "Questi programmi possono istruire un robot o un personaggio virtuale, e può essere utilizzato anche come rappresentazione per compiti complessi con azioni più semplici."

    Il progetto è stato sviluppato congiuntamente da CSAIL e dall'Università di Toronto insieme a ricercatori della McGill University e dell'Università di Lubiana. Sarà presentato alla conferenza Computer Vision and Pattern Recognition (CVPR), che si svolge questo mese a Salt Lake City.

    Come funziona

    A differenza degli umani, i robot hanno bisogno di istruzioni più esplicite per completare compiti facili:non possono semplicemente dedurre e ragionare con facilità.

    Per esempio, si potrebbe dire a un essere umano di "accendere la TV e guardarla dal divano". Qui, azioni come "prendere il telecomando" e "sedersi/sdraiarsi sul divano" sono state omesse, poiché fanno parte della conoscenza del senso comune che gli umani hanno.

    Per dimostrare meglio questo tipo di compiti ai robot, le descrizioni delle azioni dovevano essere molto più dettagliate. Fare così, il team ha prima raccolto descrizioni verbali delle attività domestiche, e poi tradotte in semplice codice. Un programma come questo potrebbe includere passaggi come:camminare verso la televisione, accendi la televisione, cammina verso il divano, siediti sul divano, e guardare la televisione.

    L'autore principale Xavier Puig Fernandez lavora sull'interfaccia della casa virtuale. Credito:Jason Dorfman, MIT CSAIL

    Una volta creati i programmi, il team li ha passati al simulatore 3D di VirtualHome per trasformarli in video. Quindi, un agente virtuale eseguirebbe le attività definite dai programmi, se stava guardando la televisione, mettere una pentola sul fuoco, o accendere e spegnere un tostapane.

    Il risultato finale non è solo un sistema per addestrare i robot a fare le faccende, ma anche un ampio database di compiti domestici descritti utilizzando il linguaggio naturale. Aziende come Amazon che stanno lavorando per sviluppare sistemi robotici simili ad Alexa a casa potrebbero eventualmente utilizzare dati come questo per addestrare i loro modelli a svolgere compiti più complessi.

    Il modello del team ha dimostrato con successo che, i loro agenti potrebbero imparare a ricostruire un programma, e quindi svolgere un compito, data una descrizione:"versare il latte nel bicchiere", o un video dimostrativo dell'attività.

    "Questa linea di lavoro potrebbe facilitare i veri assistenti personali robotici in futuro, "dice Qiao Wang, un assistente di ricerca nelle arti, media, e ingegneria presso l'Arizona State University. "Invece di ogni operazione programmata dal produttore, il robot può imparare i compiti semplicemente ascoltando o guardando la persona specifica che accompagna. Ciò consente al robot di svolgere compiti in modo personalizzato, o anche un giorno invocare una connessione emotiva come risultato di questo processo di apprendimento personalizzato."

    Nel futuro, il team spera di addestrare i robot utilizzando video reali invece di video di simulazione in stile Sims, che consentirebbe a un robot di apprendere semplicemente guardando un video di YouTube. Il team sta anche lavorando all'implementazione di un sistema di apprendimento della ricompensa in cui l'agente ottiene un feedback positivo quando svolge correttamente le attività.

    "Puoi immaginare un ambiente in cui i robot aiutano nelle faccende domestiche e possono eventualmente anticipare desideri e bisogni personalizzati, o un'azione imminente, " dice Puig. "Questo potrebbe essere particolarmente utile come tecnologia di assistenza per gli anziani, o coloro che possono avere mobilità limitata."


    © Scienza https://it.scienceaq.com