• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • L'intersezione tra visione e linguaggio

    I ricercatori dietro il CVPR Best Student Paper Award 2019 sono stati riconosciuti per il loro lavoro Credito: Matthew Turk

    Novemiladuecento ricercatori di intelligenza artificiale. Cinquemilacentosessantacinque documenti di ricerca presentati, di cui solo 1, 300 sono stati accettati. Un miglior articolo per studenti.

    E il premio è andato a:Xin Wang, studente di dottorato in informatica della UC Santa Barbara. La sua carta da studente, "Corrispondenza intermodale rafforzata e apprendimento dell'imitazione auto-supervisionato per la navigazione del linguaggio visivo, " è emerso n. 1 nella sua categoria alla 31st IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), una delle conferenze più importanti nel campo dell'informatica oggi. La premiazione si è svolta a Long Beach, martedì, 18 giugno.

    "Xin ha iniziato a lavorare con me nel 2017 come studente di dottorato su argomenti relativi alla ricerca sul linguaggio e sulla visione, " ha detto William Wang, assistente professore presso il Dipartimento di Informatica presso il College of Engineering della UCSB. "Da marzo 2018 abbiamo studiato il problema della navigazione del linguaggio visivo:come si usano le istruzioni verbali per insegnare ai robot a mirare alle destinazioni, senza accesso a una mappa?"

    Un robot in grado di navigare in base alla visione ed eseguire compiti sotto istruzioni in un linguaggio ordinario sembra fantascienza, ma è più vicino alla realtà di quanto tu possa pensare.

    "Ho lavorato per un po' sull'intersezione tra visione e linguaggio, "Xin Wang ha detto, "e credo che una delle grandi mosse dell'IA sia far interagire i robot con il mondo visivo e fisico, soprattutto tramite il linguaggio naturale.

    "La navigazione nel linguaggio di visione può consentire molte applicazioni pratiche, Per esempio, robot domestici, "continuò. "Tutti, soprattutto i disabili, può chiedere al robot di eseguire alcuni determinati compiti, per esempio "Vai in cucina e portami una tazza d'acqua". La navigazione nel linguaggio visivo serve come compito di base per comprendere sia le scene visive che le istruzioni del linguaggio naturale, così come eseguire azioni fisiche per svolgere lavori di alto livello."

    Ma ciò che è così naturale per le persone - navigare attraverso una scena ed eseguire attività utilizzando segnali ambientali in tempo reale e concetti umani - richiede un flessibile, ma elegante struttura in cui i robot possono imparare a collegare i dati che raccolgono al significato delle istruzioni che ricevono. È un processo iterativo, che richiedono rinforzo, feedback e adattamento. Il lavoro di Xin Wang, secondo il suo consigliere, "introduce diverse idee innovative per migliorare la generalizzazione dell'algoritmo di navigazione del linguaggio visivo".

    "Questa svolta nella ricerca sul linguaggio e sulla vista consentirà ai robot di assistere meglio gli esseri umani in molte routine quotidiane e speciali, compresa la pulizia e la manutenzione della casa, ricerca e recupero di oggetti, telecomando, assistere i non vedenti, in caso di catastrofe, eccetera, " ha detto William Wang. "Ha il potenziale per influenzare milioni di persone e migliorare la qualità della vita degli esseri umani, compreso liberare gli esseri umani da noiose faccende domestiche, in modo che possiamo trovare il tempo per le attività creative."

    La ricerca per il CVPR Best Student Paper 2019, che si basa su precedenti collaborazioni presso l'UCSB sull'apprendimento per rinforzo basato su modello e senza modello con dottorato di ricerca. studente Wenhan Xiong, è stato condotto nell'estate del 2018 durante uno stage presso Microsoft Research (MSR), sotto i mentori Qiuyuan Huang, Asli Celikyilmaz, Jianfeng Gao e Lei Zhang.

    Secondo il comitato CVPR Best Paper, "La navigazione visiva è un'area importante della visione artificiale:questo documento fa progressi nella navigazione del linguaggio visivo. Basandosi sul lavoro precedente in quest'area, questo documento dimostra risultati entusiasmanti basati sull'apprendimento dell'autoimitazione all'interno di un ambiente intermodale".

    "Vorremmo congratularci con Xin Wang e William Wang per questo riconoscimento estremamente prestigioso per il loro lavoro in un'area che è all'avanguardia dell'informatica, ", ha dichiarato il preside del College of Engineering Rod Alferness. "Siamo lieti che facciano parte della comunità UCSB".

    "Sono davvero onorato di ricevere questo premio, " Xin Wang ha detto. "Vorrei ringraziare sinceramente i miei consiglieri William e Yuan-Fang, e i collaboratori di MSR per il loro forte sostegno e la preziosa guida. Quanto al futuro, Spero che sempre più ricercatori possano lavorare su questa entusiasmante e necessaria direzione di ricerca, verso robot più pratici e interattivi che collegano visione e linguaggio per gli umani. Mi dedicherò sicuramente a realizzarlo".


    © Scienza https://it.scienceaq.com