I modelli climatici sono alcuni dei software più complessi mai scritti, in grado di simulare un vasto numero di parti diverse del sistema complessivo, come l’atmosfera o l’oceano. Molti sono stati sviluppati da centinaia di scienziati nel corso di decenni e vengono costantemente aggiunti e perfezionati. Possono contenere oltre un milione di righe di codice informatico, ovvero decine di migliaia di pagine stampate.
Non sorprende che questi modelli siano costosi. Le simulazioni richiedono tempo, spesso diversi mesi, e i supercomputer su cui vengono eseguiti i modelli consumano molta energia. Ma un nuovo algoritmo che ho sviluppato promette di rendere molte di queste simulazioni di modelli climatici dieci volte più veloci e potrebbe, in definitiva, rivelarsi uno strumento importante nella lotta contro il cambiamento climatico.
Uno dei motivi per cui la modellizzazione climatica richiede così tanto tempo è che alcuni dei processi simulati sono intrinsecamente lenti. L'oceano è un buon esempio. Ci vogliono alcune migliaia di anni perché l'acqua circoli dalla superficie alle profondità dell'oceano e ritorno (al contrario, l'atmosfera ha un "tempo di miscelazione" di settimane).
Da quando furono sviluppati i primi modelli climatici negli anni ’70, gli scienziati si resero conto che questo sarebbe stato un problema. Per utilizzare un modello per simulare il cambiamento climatico, è necessario partire da condizioni rappresentative di prima che l'industrializzazione portasse al rilascio di gas serra nell'atmosfera.
Per produrre un equilibrio così stabile, gli scienziati "avviano" il loro modello essenzialmente lasciandolo funzionare finché non smette di cambiare (il sistema è così complesso che, come nel mondo reale, alcune fluttuazioni saranno sempre presenti).
Una condizione iniziale con una “deriva” minima è essenziale per simulare accuratamente gli effetti dei fattori causati dall’uomo sul clima. Ma a causa dell’oceano e di altri componenti lenti, questo può richiedere diversi mesi anche su grandi supercomputer. Non c'è da stupirsi che gli scienziati del clima abbiano definito questo collo di bottiglia una delle "grandi sfide" del loro campo.
Non possiamo semplicemente aggiungere più computer al problema
Potresti chiedere:"perché non utilizzare una macchina ancora più grande?" Sfortunatamente, non aiuterebbe. Semplificando, i supercomputer sono semplicemente migliaia di singoli chip di computer, ciascuno con dozzine di unità di elaborazione (CPU o "core") collegati tra loro tramite una rete ad alta velocità.
Una delle macchine che utilizzo ha oltre 300.000 core e può eseguire quasi 20 quadrilioni di operazioni aritmetiche al secondo. (Ovviamente, è condiviso da centinaia di utenti e ogni singola simulazione utilizzerà solo una piccola parte della macchina.)
Un modello climatico sfrutta questo aspetto suddividendo la superficie del pianeta in regioni più piccole – sottodomini – con calcoli per ciascuna regione eseguiti simultaneamente su una CPU diversa. In linea di principio, più sottodomini hai, meno tempo dovrebbe occorrere per eseguire i calcoli.
Questo è vero fino a un certo punto. Il problema è che i diversi sottodomini devono "sapere" cosa sta succedendo in quelli adiacenti, il che richiede la trasmissione di informazioni tra chip. Si tratta di una velocità molto più lenta della velocità con cui i moderni chip possono eseguire calcoli aritmetici, ciò che gli informatici chiamano "limitazione della larghezza di banda". (Chiunque abbia provato a riprodurre in streaming un video tramite una connessione Internet lenta saprà cosa significa.)
I rendimenti derivanti dall’impiego di maggiore potenza di calcolo nel problema sono quindi decrescenti. I modelli oceanici soffrono soprattutto di un "dimensionamento" così scarso
Dieci volte più veloce
È qui che nasce il nuovo algoritmo informatico che ho sviluppato e pubblicato su Science Advances entra in gioco. Promette di ridurre drasticamente il tempo di accelerazione dell'oceano e di altri componenti dei modelli del sistema terrestre. Nei test su modelli climatici tipici, l'algoritmo è stato in media circa dieci volte più veloce degli approcci attuali, diminuendo il tempo da molti mesi a una settimana.
Il tempo e l’energia che ciò potrebbe far risparmiare agli scienziati del clima sono preziosi di per sé. Ma essere in grado di creare rapidamente modelli significa anche che gli scienziati possono calibrarli rispetto a ciò che sappiamo sia realmente accaduto nel mondo reale, migliorandone la precisione, o per definire meglio l’incertezza nelle loro proiezioni climatiche. Gli spin-up richiedono così tanto tempo che nessuno dei due è attualmente fattibile.
Il nuovo algoritmo ci consentirà inoltre di eseguire simulazioni con maggiore dettaglio spaziale. Attualmente, i modelli oceanici in genere non ci dicono nulla sulle caratteristiche inferiori a 1º di larghezza in longitudine e latitudine (circa 110 km all'equatore). Ma molti fenomeni critici nell'oceano si verificano su scale molto più piccole - da decine di metri a pochi chilometri - e una risoluzione spaziale più elevata porterà sicuramente a proiezioni climatiche più accurate, ad esempio dell'innalzamento del livello del mare, delle mareggiate e dell'intensità degli uragani.
Come funziona
Come gran parte della ricerca "nuova", si basa su un'idea vecchia, in questo caso che risale a secoli fa, al matematico svizzero Leonhard Euler. Chiamata "accelerazione della sequenza", puoi pensarla come l'utilizzo di informazioni passate per estrapolare un futuro "migliore".
Tra le altre applicazioni, è ampiamente utilizzato da chimici e scienziati dei materiali per calcolare la struttura di atomi e molecole, un problema che occupa più della metà delle risorse di supercalcolo mondiali.
L’accelerazione della sequenza è utile quando un problema è di natura iterativa, esattamente ciò che è lo spin-up del modello climatico:si restituisce l’output del modello come input al modello. Risciacqua e ripeti finché l'output non diventa uguale all'input e hai trovato la soluzione di equilibrio.
Negli anni '60 il matematico di Harvard D.G. Anderson ha escogitato un modo intelligente per combinare più output precedenti in un unico input in modo da arrivare alla soluzione finale con molte meno ripetizioni della procedura. Circa dieci volte meno di quanto ho scoperto applicando il suo schema al problema dello spin-up.
Sviluppare un nuovo algoritmo è la parte facile. Far sì che gli altri lo usino è spesso la sfida più grande. È quindi promettente che il Met Office del Regno Unito e altri centri di modellizzazione climatica lo stiano provando.
Il prossimo importante rapporto dell’IPCC è previsto per il 2029. Sembra un traguardo molto lontano, ma dato il tempo necessario per sviluppare modelli ed eseguire simulazioni, i preparativi sono già in corso. Coordinate da una collaborazione internazionale nota come Coupled Model Intercomparison Project, sono queste simulazioni che costituiranno la base per il rapporto. È emozionante pensare che il mio algoritmo e il mio software possano contribuire.