Gli scienziati hanno sviluppato un nuovo modo per migliorare il modo in cui i computer "vedono" e "comprendono" gli oggetti nel mondo reale addestrando i sistemi visivi dei computer in un ambiente virtuale.
Il team di ricerca ha pubblicato i suoi risultati in IEEE/CAA Journal of Autmatica Sinica , una pubblicazione congiunta dell'IEEE e dell'Associazione cinese di automazione.
Affinché i computer apprendano e riconoscano accuratamente oggetti come edifici, strade o umani, le macchine devono fare affidamento sull'elaborazione di enormi quantità di dati etichettati, in questo caso, immagini di oggetti con annotazioni accurate. Un'auto a guida autonoma, ad esempio, ha bisogno di migliaia di immagini di strade e automobili da cui imparare. I set di dati svolgono quindi un ruolo cruciale nella formazione e nel test dei sistemi di visione artificiale. Utilizzando set di dati di addestramento etichettati manualmente, un sistema di visione artificiale confronta la sua situazione attuale con situazioni note e intraprende l'azione migliore, qualunque cosa accada.
"Però, raccogliere e annotare immagini dal mondo reale è troppo impegnativo in termini di lavoro e investimenti di denaro, " scrive il primo autore Kunfeng Wang, professore associato presso il China State Key Laboratory for Management and Control for Complex Systems. Wang afferma che l'obiettivo della loro ricerca è superare i limiti dei set di dati di immagini del mondo reale, che sono insufficienti per addestrare e testare i sistemi di visione dei computer.
Per risolvere questo problema, Wang e i suoi colleghi hanno creato un set di dati chiamato ParallelEye. ParallelEye è stato virtualmente generato utilizzando un software per computer disponibile in commercio, in particolare il motore di videogiochi Unity3D. Utilizzando una mappa di Zhongguancun, una delle aree urbane più trafficate di Pechino, Cina, come loro riferimento, hanno virtualmente ricreato il contesto urbano aggiungendo edifici, auto e anche le condizioni meteorologiche. Quindi hanno posizionato una "fotocamera" virtuale su un'auto virtuale. L'auto ha fatto il giro dello Zhongguancun virtuale e ha creato set di dati rappresentativi del mondo reale.
Attraverso il loro "controllo completo" dell'ambiente virtuale, Il team di Wang è stato in grado di creare dati utilizzabili estremamente specifici per il loro sistema di rilevamento degli oggetti, un veicolo autonomo simulato. I risultati sono stati impressionanti, producendo un marcato aumento delle prestazioni su quasi tutte le metriche testate. Progettando set di dati personalizzati, una maggiore varietà di sistemi autonomi sarà più pratico da addestrare.
Mentre i loro maggiori aumenti delle prestazioni derivano dall'incorporazione di set di dati ParallelEye con set di dati del mondo reale, Il team di Wang ha dimostrato che il loro metodo è in grado di creare facilmente diversi set di immagini. "Utilizzando il framework di visione ParallelEye, immagini massicce e diversificate possono essere sintetizzate in modo flessibile, e questo può aiutare a costruire sistemi di visione artificiale più robusti, " afferma Wang. L'approccio proposto dal team di ricerca può essere applicato a molti scenari di visual computing, compresa la sorveglianza visiva, elaborazione di immagini mediche, e biometria.
Prossimo, il team creerà un insieme ancora più ampio di immagini virtuali, migliorare il realismo delle immagini virtuali, ed esplorare l'utilità delle immagini virtuali per altre attività di visione artificiale. Wang dice, "Il nostro obiettivo finale è costruire una teoria sistematica della visione parallela in grado di formare, test, comprendere e ottimizzare i modelli di visione artificiale con immagini virtuali e far funzionare bene i modelli in scene complesse."