Nubi poco profonde formate da vortici su scala sottile come si osserva in natura. I ricercatori stanno utilizzando l'informatica avanzata per aggiungere dinamiche cloud a risoluzione più elevata nelle simulazioni globali. Credito:Creative commons
Sentiamo molto parlare di come il cambiamento climatico cambierà la terra, il mare e il ghiaccio. Ma come influirà sulle nuvole?
"Le nuvole basse potrebbero seccarsi e restringersi come le calotte glaciali", afferma Michael Pritchard, professore di scienze del sistema terrestre presso la UC Irvine. "Oppure potrebbero addensarsi e diventare più riflessivi".
Questi due scenari si tradurrebbero in climi futuri molto diversi. E questo, dice Pritchard, fa parte del problema.
"Se chiedi a due diversi modelli climatici come sarà il futuro quando aggiungeremo molta più CO2 , ottieni due risposte molto diverse. E la ragione principale di ciò è il modo in cui le nuvole sono incluse nei modelli climatici."
Nessuno nega che le nuvole e gli aerosol, frammenti di fuliggine e polvere che nucleano le goccioline di nubi, siano una parte importante dell'equazione climatica. Il problema è che questi fenomeni si verificano su una scala di lunghezza e di tempo che i modelli odierni non riescono a riprodurre. Sono quindi inclusi nei modelli attraverso una varietà di approssimazioni.
Le analisi dei modelli climatici globali mostrano costantemente che le nuvole costituiscono la principale fonte di incertezza e instabilità.
Riorganizzare i codici della community
Mentre il modello climatico globale più avanzato degli Stati Uniti sta lottando per avvicinarsi a una risoluzione globale di 4 chilometri, Pritchard stima che i modelli necessitino di una risoluzione di almeno 100 metri per catturare i vortici turbolenti su scala fine che formano sistemi di nubi poco profonde, 40 volte più risolti in ogni direzione. Potrebbe volerci fino al 2060, secondo la legge di Moore, prima che la potenza di calcolo sia disponibile per acquisire questo livello di dettaglio.
Pritchard sta lavorando per correggere questa lacuna evidente suddividendo il problema della modellazione climatica in due parti:un modello planetario a grana grossa e a risoluzione inferiore (100 km) e molte piccole patch con una risoluzione da 100 a 200 metri. Le due simulazioni vengono eseguite indipendentemente e quindi si scambiano i dati ogni 30 minuti per assicurarsi che nessuna delle simulazioni vada fuori strada o non sia realistica.
Il suo team ha riportato i risultati di questi sforzi nel Journal of Advances in Modeling Earth Systems nell'aprile 2022.
Questo metodo di simulazione climatica, chiamato "Multiscale Modeling Framework (MMF)," è in uso dal 2000 ed è stato a lungo un'opzione all'interno del modello CESM (Community Earth System Model), sviluppato presso il National Center for Atmospheric Research. L'idea ha recentemente avuto una rinascita presso il Dipartimento dell'Energia, dove i ricercatori dell'Energy Exascale Earth System Model (E3SM) l'hanno spinta verso nuove frontiere computazionali come parte del Exascale Computing Project. Il coautore di Pritchard Walter Hannah del laboratorio nazionale Lawrence Livermore aiuta a guidare questo sforzo.
"Il modello fa una corsa finale attorno al problema più difficile:la modellazione dell'intero pianeta", ha spiegato Pritchard. "Ha migliaia di piccoli micromodelli che catturano cose come la formazione realistica di nubi poco profonde che emergono solo ad altissima risoluzione".
"L'approccio Multiscale Modeling Framework è ideale anche per i prossimi computer exascale basati su GPU del DOE", ha affermato Mark Taylor, Chief Computational Scientist per il progetto E3SM (Energy Exascale Earth System Model) del DOE e ricercatore presso i Sandia National Laboratories. "Ogni GPU ha la potenza necessaria per eseguire centinaia di micromodelli pur mantenendo la velocità effettiva del modello planetario a grana grossa e a risoluzione inferiore."
La ricerca e il nuovo approccio di Pritchard sono resi possibili in parte dal supercomputer Frontera, finanziato dall'NSF, presso il Texas Advanced Computing Center (TACC). Pritchard, il supercomputer universitario più veloce del mondo, può eseguire i suoi modelli su Frontera in una scala di tempo e lunghezza accessibile solo su una manciata di sistemi negli Stati Uniti e testarne il potenziale per la modellazione cloud.
"Abbiamo sviluppato un modo per un supercomputer per suddividere al meglio il lavoro di simulazione della fisica del cloud su diverse parti del mondo che meritano diverse quantità di risoluzione... in modo che funzioni molto più velocemente", ha scritto il team.
Simulating the atmosphere in this way provides Pritchard the resolution needed to capture the physical processes and turbulent eddies involved in cloud formation. The researchers showed that the multi-model approach did not produce unwanted side effects even where patches using different cloud-resolving grid structures met.
"We were happy so see that the differences were small," he said. "This will provide new flexibility to all users of climate models who want to focus high resolution in different places."
Disentangling and reconnecting the various scales of the CESM model was one challenge that Pritchard's team overcame. Another involved reprogramming the model so it could take advantage of the ever-increasing number of processors available on modern supercomputing systems.
Pritchard and his team—UCI postdoctoral scholar Liran Peng and University of Washington research scientist Peter Blossey—tackled this by breaking the inner domains of the CESM's embedded cloud models into smaller parts that could be solved in parallel using MPI, or message passing interface—a way of exchanging messages between multiple computers running a parallel program across distributed memory—and orchestrating these calculations to use many more processors.
"Doing so seems to already provide a four-time speed-up with great efficiency. That means, I can be four times as ambitious for my cloud-resolving models," he said. "I'm really optimistic that this dream of regionalizing and MPI decomposing is leading to a totally different landscape of what's possible."
Machine learning clouds
Pritchard sees another promising approach in machine learning, which his team has been exploring since 2017. "I've been very provoked by how performantly a dumb sheet of neurons can reproduce these partial differential equations," Pritchard said.
Pritchard's research and new approach is made possible in part by the NSF-funded Frontera supercomputer at TACC. The fastest university supercomputer in the world, Pritchard can run his models on Frontera at a time and length-scale accessible only on a handful of systems in the U.S. and test their potential for cloud modeling.
In a paper submitted last fall, Pritchard, lead author Tom Beucler, of UCI, and others describe a machine learning approach that successfully predicts atmospheric conditions even in climate regimes it was not trained on, where others have struggled to do so.
This "climate invariant" model incorporates physical knowledge of climate processes into the machine learning algorithms. Their study—which used Stampede2 at TACC, Cheyenne at the National Center for Atmospheric Research, and Expanse at the San Diego Supercomputer Center—showed the machine learning method can maintain high accuracy across a wide range of climates and geographies.
"If machine learning high-resolution cloud physics ever succeeded, it would transform everything about how we do climate simulations," Pritchard said. "I'm interested in seeing how reproducibly and reliably the machine learning approach can succeed in complex settings."
Pritchard is well-positioned to do so. He is on the Executive Committee of the NSF Center for Learning the Earth with Artificial Intelligence and Physics, or LEAP—a new Science and Technology Center, funded by NSF in 2021 directed by his long-time collaborator on this topic, Professor Pierre Gentine. LEAP brings together climate and data scientists to narrow the range of uncertainty in climate modeling, providing more precise and actionable climate projections that achieve immediate societal impact.
"All of the research I've done before is what I would call 'throughput-limited.'" Pritchard said. "My job was to produce 10- to 100-year simulations. That constrained all my grid choices. However, if the goal is to produce short simulations to train machine learning models, that's a different landscape."
Pritchard hopes to soon use the results of his 50 meter embedded models to start building up a large training library. "It's a really nice dataset to do machine learning on."
But will AI mature fast enough? Time is of the essence to figure out the destiny of clouds.
"If those clouds shrink away, like ice sheets will, exposing darker surfaces, that will amplify global warming and all the hazards that come with it. But if they do the opposites of ice sheets and thicken up, which they could, that's less hazardous. Some have estimated this as a multi-trillion dollar issue for society. And this has been in question for a long time," Pritchard said.
Simulation by simulation, federally-funded supercomputers are helping Pritchard and others approach the answer to this critical question.
"I'm torn between genuine gratitude for the U.S. national computing infrastructure, which is so incredible at helping us develop and run climate models," Pritchard said, "and feeling that we need a Manhattan Project level of new federal funding and interagency coordination to actually solve this problem."