• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Rendere più agile l'animazione al computer, acrobatico e realistico

    Gli scienziati informatici della UC Berkeley hanno sviluppato un algoritmo che utilizza l'apprendimento per rinforzo per generare simulazioni realistiche del movimento umano e animale, come questo backflip in tempo reale. Lo stesso algoritmo funziona per 25 acrobazie e balli, con un mese di apprendimento richiesto per abilità. Credito:Jason Peng, UC Berkeley

    È ancora facile distinguere i movimenti simulati al computer dall'oggetto reale - sul grande schermo o nei videogiochi, umani e animali simulati spesso si muovono goffamente, senza il ritmo e la fluidità delle loro controparti del mondo reale.

    Ma questo sta cambiando. Università della California, I ricercatori di Berkeley hanno ora compiuto un grande progresso nell'animazione realistica al computer, utilizzando l'apprendimento del rinforzo profondo per ricreare i movimenti naturali, anche per acrobazie come break dance e arti marziali. I personaggi simulati possono anche rispondere in modo naturale ai cambiamenti nell'ambiente, come riprendersi da un inciampo o essere colpito da proiettili.

    "Questo è in realtà un grande passo avanti rispetto a ciò che è stato fatto con il deep learning e l'animazione. In passato, molto lavoro è stato dedicato alla simulazione dei movimenti naturali, ma questi metodi basati sulla fisica tendono ad essere molto specializzati; non sono metodi generali in grado di gestire una grande varietà di abilità, ", ha affermato lo studente laureato alla UC Berkeley Xue Bin "Jason" Peng. Ogni attività o compito richiede in genere il proprio controller progettato su misura.

    "Abbiamo sviluppato agenti più capaci che si comportano in modo naturale, " ha detto. "Se si confrontano i nostri risultati con la cattura del movimento registrata da esseri umani, stiamo arrivando al punto in cui è piuttosto difficile distinguere i due, per dire cosa è simulazione e cosa è reale. Ci stiamo muovendo verso uno stuntman virtuale".

    Il lavoro potrebbe anche ispirare lo sviluppo di abilità motorie più dinamiche per i robot.

    Un documento che descrive lo sviluppo è stato accettato con riserva per la presentazione alla conferenza SIGGRAPH 2018 ad agosto a Vancouver, Canada, ed è stato pubblicato online il 10 aprile. I colleghi di Peng nel Dipartimento di ingegneria elettrica e informatica sono il professor Pieter Abbeel e l'assistente professore Sergey Levine, insieme a Michiel van de Panne dell'Università della British Columbia.

    Mocap per DeepMimic

    Le tecniche tradizionali di animazione in genere richiedono la progettazione manuale di controller personalizzati per ogni abilità:un controller per camminare, Per esempio, e un altro per correre, salti mortali e altri movimenti. Questi controller progettati a mano possono avere un bell'aspetto, ha detto Peng.

    In alternativa, metodi di apprendimento per rinforzo profondo, come GAIL, può simulare una varietà di abilità diverse utilizzando un unico algoritmo generale, ma i loro risultati spesso sembrano molto innaturali.

    I ricercatori della UC Berkeley hanno creato uno stuntman virtuale che potrebbe rendere i personaggi animati al computer più realistici. Credito:video dell'UC Berkeley di Roxanne Makasdjian e Stephen McNally, con filmati di simulazione di Jason Peng

    "Il vantaggio del nostro lavoro, "Ping ha detto, "è che possiamo ottenere il meglio da entrambi i mondi. Abbiamo un unico algoritmo in grado di apprendere una varietà di abilità diverse, e produrre movimenti che rivaleggiano, se non superano, lo stato dell'arte nell'animazione con controller artigianali."

    Per realizzare questo, Peng ha ottenuto dati di riferimento da clip motion-capture (mocap) che dimostrano più di 25 diverse imprese acrobatiche, come i salti mortali, ruote di carro, kip-up e volte, oltre alla semplice corsa, lanciare e saltare. Dopo aver fornito i dati del mocap al computer, il team ha quindi permesso al sistema - soprannominato DeepMimic - di "esercitare" ogni abilità per circa un mese di tempo simulato, un po' più di quanto un umano potrebbe impiegare per apprendere la stessa abilità.

    Il computer si è esercitato 24 ore su 24, 7 giorni su 7, passando attraverso milioni di prove per imparare a simulare realisticamente ogni abilità. Ha imparato attraverso prove ed errori:confrontando le sue prestazioni dopo ogni prova con i dati del mocap, e modificando il suo comportamento in modo che corrisponda più da vicino al movimento umano.

    "La macchina sta imparando queste abilità completamente da zero, prima ancora che sappia camminare o correre, quindi un mese potrebbe non essere troppo irragionevole, " Egli ha detto.

    La chiave era permettere alla macchina di apprendere in modi che gli umani non fanno. Per esempio, un backflip coinvolge così tanti movimenti individuali del corpo che una macchina potrebbe continuare a cadere e non superare mai i primi passi. Anziché, l'algoritmo inizia ad apprendere in varie fasi del backflip - anche a mezz'aria - in modo da apprendere separatamente ogni fase del movimento e poi unirle insieme.

    Sorprendentemente, una volta addestrato, i personaggi simulati sono in grado di affrontare e riprendersi da condizioni mai viste prima:correre su terreni irregolari e fare spin-kick mentre vengono colpiti dai proiettili.

    "I recuperi vengono gratuitamente dal processo di apprendimento, " ha detto Peng.

    E lo stesso semplice metodo ha funzionato per tutte le oltre 25 abilità.

    "Quando abbiamo iniziato, abbiamo pensato di provare qualcosa di semplice, come base per i metodi successivi, non mi aspettavo che avrebbe funzionato. Ma il metodo molto semplice funziona davvero molto bene. Ciò dimostra che un approccio semplice può effettivamente apprendere un repertorio molto ricco di abilità altamente dinamiche e acrobatiche."


    © Scienza https://it.scienceaq.com