Un'immagine della distribuzione della materia nell'universo generata da una simulazione Mira che modella 1,1 trilioni di particelle. Credito:Hal Finkel, Nicola Frontiere, Salman Habib, Katrin Heitmann, Marco Hereld, Giuseppe Insley, Kalyan Kumaran, Vitali Morozov, Michael E. Papka, Tom Peterka, Adriano Papa, e Tim Williams, Laboratorio Nazionale Argonne; Zarija Luca, Laboratorio Nazionale Lawrence Berkeley; David Daniel e Patricia Fasel, Laboratorio Nazionale di Los Alamos
Una simulazione cosmologica estremamente ampia, tra le cinque più estese mai condotte, verrà eseguita su Mira questo autunno ed esemplifica la portata dei problemi affrontati sul supercomputer di classe dirigente presso l'Argonne National Laboratory del Dipartimento dell'Energia degli Stati Uniti (DOE).
Il fisico di Argonne e scienziato computazionale Katrin Heitmann guida il progetto. Heitmann è stato tra i primi a sfruttare le capacità di Mira quando, nel 2013, il sistema IBM Blue Gene/Q è andato online presso l'Argonne Leadership Computing Facility (ALCF), una struttura per gli utenti dell'Office of Science del DOE. Tra le più grandi simulazioni cosmologiche mai eseguite all'epoca, la simulazione del bordo esterno che lei e i suoi colleghi hanno effettuato ha consentito ulteriori ricerche scientifiche per molti anni.
Per il nuovo sforzo, A Heitmann sono state assegnate circa 800 milioni di ore core per eseguire una simulazione che rifletta i progressi osservativi all'avanguardia da satelliti e telescopi e costituirà la base per le mappe del cielo utilizzate da numerosi sondaggi. Evolvendo un numero enorme di particelle, la simulazione è progettata per aiutare a risolvere i misteri dell'energia oscura e della materia oscura.
"Trasformando questa simulazione in un cielo sintetico che imita da vicino i dati osservativi a diverse lunghezze d'onda, questo lavoro può consentire un gran numero di progetti scientifici in tutta la comunità di ricerca, " Ha detto Heitmann. "Ma ci presenta una grande sfida." Cioè, al fine di generare cieli sintetici su diverse lunghezze d'onda, il team deve estrarre informazioni rilevanti ed eseguire analisi al volo o dopo il fatto in post-elaborazione. La post-elaborazione richiede l'archiviazione di enormi quantità di dati, così tanti, infatti, che la semplice lettura dei dati diventa estremamente costosa dal punto di vista computazionale.
Da quando Mira è stato lanciato, Heitmann e il suo team hanno implementato nel loro Hardware/Hybrid Accelerated Cosmology Code (HACC) strumenti di analisi più sofisticati per l'elaborazione al volo. "Inoltre, rispetto alla simulazione del bordo esterno, abbiamo effettuato tre importanti miglioramenti, " ha detto. "In primo luogo, il nostro modello cosmologico è stato aggiornato in modo da poter eseguire una simulazione con i migliori input osservativi possibili. Secondo, mentre puntiamo a una corsa completa della macchina, il volume sarà aumentato, portando a statistiche migliori. Più importante, abbiamo impostato diverse nuove routine di analisi che ci permetteranno di generare cieli sintetici per una vasta gamma di rilevamenti, a sua volta, permettendoci di studiare un'ampia gamma di problemi scientifici".
La simulazione del team affronterà numerose questioni fondamentali in cosmologia ed è essenziale per consentire il perfezionamento degli strumenti predittivi esistenti e aiutare lo sviluppo di nuovi modelli, impatto sulle indagini cosmologiche in corso e future, compreso lo strumento spettroscopico per l'energia oscura (DESI), il Large Synoptic Survey Telescope (LSST), SFERA, e l'esperimento di fondo cosmico a microonde a terra "Stage-4" (CMB-S4). Il valore della simulazione deriva dal suo enorme volume (necessario per coprire porzioni consistenti di aree di rilevamento) e dal raggiungimento di livelli di risoluzione di massa e forza sufficienti per catturare le piccole strutture che ospitano deboli galassie.
Il volume e la risoluzione pongono requisiti computazionali elevati, e poiché non si incontrano facilmente, vengono effettuate poche simulazioni cosmologiche su larga scala. Contribuire alla difficoltà della loro esecuzione è il fatto che le impronte di memoria dei supercomputer non sono aumentate proporzionalmente alla velocità di elaborazione negli anni successivi all'introduzione di Mira. Questo rende quel sistema, nonostante la sua età relativa, piuttosto ottimale per una campagna su larga scala quando sfruttata appieno.
"Un calcolo di questa scala è solo un assaggio di ciò di cui saranno capaci le risorse exascale in fase di sviluppo nel 2021/22, " ha detto Katherine Riley, Direttore scientifico dell'ALCF. "La comunità di ricerca trarrà vantaggio da questo lavoro per molto tempo".