La simulazione più a sinistra è stata eseguita a bassa risoluzione. Utilizzando l'apprendimento automatico, i ricercatori hanno potenziato il modello a bassa risoluzione per creare una simulazione ad alta risoluzione (a destra). Quella simulazione cattura gli stessi dettagli di un modello ad alta risoluzione convenzionale (al centro) mentre richiede un numero significativamente inferiore di risorse computazionali. Credito:Y. Li et al./Proceedings of the National Academy of Sciences 2021
Un universo si evolve per miliardi e miliardi di anni, ma i ricercatori hanno sviluppato un modo per creare un complesso universo simulato in meno di un giorno. La tecnica, pubblicato in questa settimana Atti dell'Accademia Nazionale delle Scienze , riunisce l'apprendimento automatico, calcolo ad alte prestazioni e astrofisica e contribuirà a inaugurare una nuova era di simulazioni cosmologiche ad alta risoluzione.
Le simulazioni cosmologiche sono una parte essenziale per svelare i molti misteri dell'universo, compresi quelli della materia oscura e dell'energia oscura. Ma fino ad ora, i ricercatori hanno affrontato l'enigma comune di non essere in grado di avere tutto ¬— le simulazioni potrebbero concentrarsi su una piccola area ad alta risoluzione, oppure potrebbero comprendere un grande volume dell'universo a bassa risoluzione.
Professori di Fisica della Carnegie Mellon University Tiziana Di Matteo e Rupert Croft, Yin Li, ricercatore del Flatiron Institute, Carnegie Mellon Ph.D. candidato Yueying Ni, Il professore di fisica e astronomia dell'Università della California Riverside Simeon Bird e Yu Feng dell'Università della California Berkeley hanno superato questo problema insegnando un algoritmo di apprendimento automatico basato su reti neurali per aggiornare una simulazione da bassa risoluzione a super risoluzione.
"Le simulazioni cosmologiche devono coprire un grande volume per gli studi cosmologici, richiedendo anche un'alta risoluzione per risolvere la fisica della formazione delle galassie su piccola scala, che comporterebbe scoraggianti sfide computazionali. La nostra tecnica può essere utilizzata come uno strumento potente e promettente per soddisfare questi due requisiti simultaneamente modellando la fisica della formazione delle galassie su piccola scala in grandi volumi cosmologici, " disse Ni, che ha eseguito l'addestramento del modello, costruito la pipeline per il test e la convalida, analizzato i dati e realizzato la visualizzazione dai dati.
Il codice addestrato può prendere su larga scala, modelli a bassa risoluzione e genera simulazioni a super risoluzione che contengono fino a 512 volte il numero di particelle. Per una regione dell'universo di circa 500 milioni di anni luce di diametro contenente 134 milioni di particelle, i metodi esistenti richiederebbero 560 ore per sfornare una simulazione ad alta risoluzione utilizzando un singolo core di elaborazione. Con il nuovo approccio, i ricercatori hanno bisogno solo di 36 minuti.
I risultati sono stati ancora più drammatici quando sono state aggiunte più particelle alla simulazione. Per un universo 1, 000 volte più grande con 134 miliardi di particelle, il nuovo metodo dei ricercatori ha impiegato 16 ore su una singola unità di elaborazione grafica. Utilizzando i metodi attuali, una simulazione di queste dimensioni e risoluzione richiederebbe mesi per essere completata da un supercomputer dedicato.
Ridurre il tempo necessario per eseguire simulazioni cosmologiche "ha il potenziale di fornire importanti progressi nella cosmologia numerica e nell'astrofisica, " disse Di Matteo. "Le simulazioni cosmologiche seguono la storia e il destino dell'universo, fino alla formazione di tutte le galassie e dei loro buchi neri".
Gli scienziati usano simulazioni cosmologiche per prevedere come apparirebbe l'universo in vari scenari, come se l'energia oscura che separa l'universo variasse nel tempo. Le osservazioni del telescopio confermano quindi se le previsioni delle simulazioni corrispondono alla realtà.
"Con le nostre precedenti simulazioni, abbiamo dimostrato di poter simulare l'universo per scoprire fisica nuova e interessante, ma solo su scale piccole o a bassa risoluzione, ", ha affermato Croft. "Incorporando l'apprendimento automatico, la tecnologia è in grado di raggiungere le nostre idee."
Di Matteo, Croft e Ni fanno parte dell'Istituto di pianificazione per l'intelligenza artificiale in fisica della National Science Foundation (NSF) della Carnegie Mellon, che ha sostenuto questo lavoro, e membri del McWilliams Center for Cosmology di Carnegie Mellon.
"L'universo è il più grande set di dati che ci sia:l'intelligenza artificiale è la chiave per comprendere l'universo e rivelare nuova fisica, " ha detto Scott Dodelson, professore e capo del dipartimento di fisica della Carnegie Mellon University e direttore del NSF Planning Institute. "Questa ricerca illustra come l'Istituto di pianificazione per l'intelligenza artificiale dell'NSF farà progredire la fisica attraverso l'intelligenza artificiale, apprendimento automatico, statistica e scienza dei dati".
"È chiaro che l'intelligenza artificiale sta avendo un grande effetto su molte aree della scienza, tra cui fisica e astronomia, " ha detto James Shank, un direttore del programma nella Divisione di Fisica della NSF. "Il nostro programma dell'Istituto di pianificazione dell'intelligenza artificiale sta lavorando per spingere l'intelligenza artificiale ad accelerare la scoperta. Questo nuovo risultato è un buon esempio di come l'intelligenza artificiale sta trasformando la cosmologia".
Per creare il loro nuovo metodo, Ni e Li hanno sfruttato questi campi per creare un codice che utilizza le reti neurali per prevedere come la gravità sposta la materia oscura nel tempo. Le reti prendono i dati di formazione, eseguire calcoli e confrontare i risultati con il risultato previsto. Con ulteriore formazione, le reti si adattano e diventano più precise.
L'approccio specifico utilizzato dai ricercatori, chiamato rete generativa avversaria, mette due reti neurali l'una contro l'altra. Una rete prende simulazioni a bassa risoluzione dell'universo e le utilizza per generare modelli ad alta risoluzione. L'altra rete cerca di distinguere queste simulazioni da quelle realizzate con metodi convenzionali. Col tempo, entrambe le reti neurali migliorano sempre di più finché, in definitiva, il generatore di simulazione vince e crea simulazioni veloci che sembrano proprio quelle lente convenzionali.
"Non siamo riusciti a farlo funzionare per due anni, "Li ha detto, "e all'improvviso ha iniziato a funzionare. Abbiamo ottenuto ottimi risultati che corrispondevano a ciò che ci aspettavamo. Abbiamo anche fatto alcuni test alla cieca noi stessi, e la maggior parte di noi non sapeva dire quale fosse "reale" e quale fosse "falso".
Nonostante sia stato addestrato solo utilizzando piccole aree di spazio, le reti neurali hanno replicato accuratamente le strutture su larga scala che appaiono solo in enormi simulazioni.
Le simulazioni non hanno catturato tutto, anche se. Perché si sono concentrati sulla materia oscura e sulla gravità, fenomeni su scala minore, come la formazione di stelle, le supernove e gli effetti dei buchi neri sono stati esclusi. I ricercatori intendono estendere i loro metodi per includere le forze responsabili di tali fenomeni, e per far funzionare le loro reti neurali "al volo" insieme a simulazioni convenzionali per migliorare la precisione.