Utilizzando un modello di apprendimento automatico e dati storici dalla regione di Cascadia nel nord-ovest del Pacifico, I geofisici computazionali del Los Alamos National Laboratory hanno portato alla luce caratteristiche statistiche distinte che segnano lo stadio formativo delle rotture a scorrimento lento nella crosta terrestre mesi prima che il tremore o i dati GPS rilevassero uno slittamento nelle placche tettoniche. Credito:Galyna Andrushko/Shutterstock
Combinando i dati sismici storici, i ricercatori che utilizzano un modello di apprendimento automatico hanno portato alla luce caratteristiche statistiche distinte che segnano la fase formativa delle rotture a scorrimento lento nella crosta terrestre mesi prima che il tremore o i dati GPS rilevassero uno slittamento nelle placche tettoniche. Data la somiglianza tra eventi a scorrimento lento e terremoti classici, queste firme distinte possono aiutare i geofisici a comprendere anche i tempi dei devastanti terremoti più veloci.
"Il modello di apprendimento automatico ha scoperto che, vicino alla fine del ciclo di scorrimento lento, un'istantanea dei dati è impressa con le informazioni fondamentali riguardanti l'imminente guasto del sistema, " ha detto Claudia Hulbert, geofisico computazionale presso l'ENS e il Los Alamos National Laboratory e autore principale dello studio, pubblicato oggi in Comunicazioni sulla natura . "I nostri risultati suggeriscono che la rottura a scorrimento lento potrebbe essere prevedibile, e poiché gli eventi di slittamento lento hanno molto in comune con i terremoti, gli eventi a scorrimento lento possono fornire un modo più semplice per studiare la fisica fondamentale della rottura della terra".
Gli eventi a scorrimento lento sono terremoti che scuotono dolcemente il terreno per giorni, mesi, o anche anni, non irradiare onde sismiche di grande ampiezza, e spesso passano inosservati alla persona media. I classici terremoti con cui la maggior parte delle persone ha familiarità rompono il terreno in pochi minuti. In una data zona si verificano anche meno frequentemente, rendendo i terremoti più grandi più difficili da studiare con le tecniche di apprendimento automatico affamate di dati.
Il team ha esaminato le onde sismiche continue che coprono il periodo dal 2009 al 2018 dalla Pacific Northwest Seismic Network, che traccia i movimenti della terra nella regione della Cascadia. In questa zona di subduzione, durante un evento di slittamento lento, la placca nordamericana oscilla a sud-ovest sopra la placca Juan de Fuca circa ogni 14 mesi. Il set di dati si prestava bene all'approccio di apprendimento automatico supervisionato sviluppato in esperimenti di laboratorio sui terremoti dai collaboratori del team di Los Alamos e utilizzato per questo studio.
Il team ha calcolato una serie di caratteristiche statistiche legate all'energia del segnale in segnali a bassa ampiezza, bande di frequenza identificate dal loro lavoro precedente come le più informative sul comportamento del sistema geologico. La caratteristica più importante per prevedere lo slittamento lento nei dati di Cascadia è la potenza sismica, che corrisponde all'energia sismica, in particolare bande di frequenza associate ad eventi di slow slip. Secondo il giornale, lo slittamento lento spesso inizia con un'accelerazione esponenziale sulla faglia, una forza così piccola che sfugge al rilevamento da parte dei sensori sismici.
"Per la maggior parte degli eventi, possiamo vedere le firme della rottura imminente da settimane a mesi prima della rottura, "Hulbert ha detto. "Sono abbastanza simili da un ciclo di eventi all'altro in modo che un modello addestrato su dati passati possa riconoscere le firme nei dati di diversi anni dopo. Ma è ancora una questione aperta se questo regge per lunghi periodi di tempo".
L'ipotesi del team di ricerca sul segnale che indica la formazione di un evento a scorrimento lento si allinea con altri lavori recenti di Los Alamos e altri che rilevano scosse premonitori di piccola ampiezza in California. Quel lavoro ha scoperto che le scosse previsionali possono essere osservate in media due settimane prima della maggior parte dei terremoti di magnitudo superiore a 4.
Gli algoritmi di apprendimento automatico supervisionati di Hulbert e dei suoi collaboratori si allenano sulle caratteristiche sismiche calcolate dalla prima metà dei dati sismici e tentano di trovare il modello migliore che mappa queste caratteristiche al tempo rimanente prima del successivo evento di scorrimento lento. Quindi lo applicano alla seconda metà dei dati, che non ha visto.
Gli algoritmi sono trasparenti, il che significa che il team può vedere quali funzionalità utilizza l'apprendimento automatico per prevedere quando l'errore potrebbe scivolare. Consente inoltre ai ricercatori di confrontare queste caratteristiche con quelle più importanti negli esperimenti di laboratorio per stimare i tempi di guasto. Questi algoritmi possono essere sondati per identificare quali caratteristiche statistiche dei dati sono importanti nelle previsioni del modello, e perché.
"Identificando le importanti caratteristiche statistiche, possiamo confrontare i risultati con quelli degli esperimenti di laboratorio, che ci offre una finestra sulla fisica sottostante, "Ha detto Hulbert. "Date le somiglianze tra le caratteristiche statistiche nei dati di Cascadia e dagli esperimenti di laboratorio, sembrano esserci punti in comune nella fisica dell'attrito alla base della rottura e della nucleazione a scorrimento lento. Le stesse cause possono scalare dal piccolo sistema di laboratorio alla vasta scala della zona di subduzione di Cascadia".
Il team di sismologia di Los Alamos, guidato da Paul Johnson, ha pubblicato diversi articoli negli ultimi anni aprendo la strada all'uso dell'apprendimento automatico per decomprimere la fisica alla base dei terremoti negli esperimenti di laboratorio e nei dati sismici del mondo reale.