• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • La nuova IA vede come un essere umano, riempiendo gli spazi vuoti

    Gli scienziati informatici dell'Università del Texas ad Austin hanno insegnato a un agente di intelligenza artificiale come fare qualcosa che di solito solo gli umani possono fare:dare qualche rapida occhiata in giro e dedurre l'intero ambiente. Credito:Jenna Luecke/Università del Texas ad Austin.

    Gli scienziati informatici dell'Università del Texas ad Austin hanno insegnato a un agente di intelligenza artificiale come fare qualcosa che di solito solo gli umani possono fare:dare qualche rapida occhiata in giro e dedurre il suo intero ambiente, un'abilità necessaria per lo sviluppo di robot di ricerca e salvataggio efficaci che un giorno possono migliorare l'efficacia delle missioni pericolose. Il gruppo, guidato dalla professoressa Kristen Grauman, dottorato di ricerca candidato Santhosh Ramakrishnan ed ex Ph.D. candidato Dinesh Jayaraman (ora alla University of California, Berkeley) hanno pubblicato oggi i loro risultati sulla rivista Robotica scientifica .

    La maggior parte degli agenti di intelligenza artificiale, sistemi informatici che potrebbero dotare robot o altre macchine di intelligenza, sono addestrati per compiti molto specifici, come riconoscere un oggetto o stimarne il volume, in un ambiente che hanno già sperimentato, come una fabbrica. Ma l'agente sviluppato da Grauman e Ramakrishnan è di uso generale, raccogliere informazioni visive che possono essere utilizzate per un'ampia gamma di attività.

    "Vogliamo un agente che sia generalmente attrezzato per entrare negli ambienti ed essere pronto per nuovi compiti di percezione man mano che si presentano, " Ha detto Grauman. "Si comporta in un modo che è versatile e in grado di avere successo in diversi compiti perché ha appreso modelli utili sul mondo visivo".

    Gli scienziati hanno utilizzato il deep learning, un tipo di apprendimento automatico ispirato alle reti neurali del cervello, per addestrare il loro agente su migliaia di immagini a 360 gradi di ambienti diversi.

    Ora, quando si presenta con una scena che non ha mai visto prima, l'agente usa la sua esperienza per scegliere alcuni scorci, come un turista in piedi nel mezzo di una cattedrale che scatta alcune istantanee in direzioni diverse, che insieme ammontano a meno del 20 percento dell'intera scena. Ciò che rende questo sistema così efficace è che non si limita a scattare foto in direzioni casuali ma, dopo ogni sguardo, scegliendo il prossimo colpo che prevede aggiungerà le più nuove informazioni sull'intera scena. È come se fossi in un negozio di alimentari che non avevi mai visitato prima, e hai visto le mele, ti aspetteresti di trovare arance nelle vicinanze, ma per trovare il latte, potresti dare un'occhiata dall'altra parte. Sulla base di scorci, l'agente deduce cosa avrebbe visto se avesse guardato in tutte le altre direzioni, ricostruire un'immagine completa a 360 gradi dell'ambiente circostante.

    Un nuovo agente di intelligenza artificiale sviluppato dai ricercatori dell'Università del Texas ad Austin prende alcuni "sguardi" dei suoi dintorni, che rappresenta meno del 20 percento della visualizzazione completa a 360 gradi, e deduce il resto dell'intero ambiente. Ciò che rende questo sistema così efficace è che non si limita a scattare foto in direzioni casuali ma, dopo ogni sguardo, scegliendo il prossimo colpo che prevede aggiungerà le più nuove informazioni sull'intera scena. Credito:David Steadman/Santhosh Ramakrishnan/Università del Texas ad Austin

    "Proprio come fornisci informazioni precedenti sulle regolarità che esistono in ambienti precedentemente sperimentati, come tutti i negozi di alimentari in cui sei mai stato, questo agente cerca in modo non esaustivo, " Ha detto Grauman. "Impara a fare ipotesi intelligenti su dove raccogliere informazioni visive per avere successo nei compiti di percezione".

    Una delle sfide principali che gli scienziati si sono posti è stata quella di progettare un agente in grado di funzionare in tempi ristretti. Questo sarebbe fondamentale in un'applicazione di ricerca e salvataggio. Per esempio, in un edificio in fiamme un robot sarebbe chiamato a localizzare rapidamente le persone, fiamme e materiali pericolosi e trasmettere tali informazioni ai vigili del fuoco.

    Un video di completamento dell'osservazione attiva di ambienti sconosciuti. Credito:Ramakrishnan et al., Sci. Robot. 4, eaaw6326 (2019)

    Per adesso, il nuovo agente opera come una persona in piedi in un punto, con la possibilità di puntare una telecamera in qualsiasi direzione ma non in grado di spostarsi in una nuova posizione. O, equivalentemente, l'agente potrebbe fissare un oggetto che sta tenendo e decidere come girare l'oggetto per ispezionarne un altro lato. Prossimo, i ricercatori stanno sviluppando ulteriormente il sistema per lavorare in un robot completamente mobile.

    Un video di esempi di percorsi degli ambienti ricostruiti dal punto di vista egocentrico del sistema di visione artificiale. Credito:Ramakrishnan et al., Sci. Robot. 4, eaaw6326 (2019)

    Utilizzando i supercomputer del Texas Advanced Computing Center e del Dipartimento di Informatica di UT Austin, ci è voluto circa un giorno per addestrare il loro agente utilizzando un approccio di intelligenza artificiale chiamato apprendimento per rinforzo. Il gruppo, con la guida di Ramakrishnan, sviluppato un metodo per accelerare la formazione:costruire un secondo agente, chiamato aiutante, per assistere l'agente principale.

    "L'utilizzo di informazioni aggiuntive presenti esclusivamente durante la formazione aiuta l'agente [primario] ad apprendere più velocemente, " ha detto Ramakrishnan.


    © Scienza https://it.scienceaq.com