• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  Science >> Scienza >  >> Natura
    L'ottimizzazione del flusso di dati sui terremoti consente la ricerca scientifica su The Big One
    Credito:Wilson Malone di Pexels

    Nessuno può prevedere con precisione quando avverrà un terremoto. Dal terremoto di Northridge di magnitudo 6,7 del 1994, nella contea di Los Angeles, che causò 72 morti, 9.000 feriti e 25 miliardi di dollari di danni, la California meridionale attende con ansia "The Big One":un terremoto devastante, previsto essere di almeno magnitudo 7,8 e 44 volte più forte. I sismologi possono solo dire che ciò potrebbe accadere entro i prossimi 30 anni.



    Sebbene gli scienziati non possano prevedere quando e dove si verificheranno i terremoti, la preparazione è fondamentale per migliorare la resilienza della società ai grandi terremoti. In particolare, lo Statewide California Earthquake Center (SCEC) con sede nell'USC ha sviluppato CyberShake, una piattaforma computazionale che simula centinaia di migliaia di terremoti per calcolare modelli di rischio sismico regionali.

    Rivelando le aree geografiche della California meridionale più a rischio di forti scosse, i suoi risultati hanno influenzato i regolamenti edilizi di Los Angeles e la progettazione dei modelli di terremoti presso l'U.S. Geological Survey, la più grande agenzia nazionale di mappatura delle scienze geologiche e della terra.

    Gli studi su CyberShake, e gran parte della scienza moderna, tuttavia, richiedono un utilizzo intensivo di dati e di elaborazione. Con calcoli in più fasi che alimentano numerose attività computazionali interconnesse eseguite su supercomputer locali e nazionali per simulare 600.000 terremoti diversi, il flusso di lavoro scientifico di CyberShake è complesso. L'Istituto di scienze dell'informazione (ISI) dell'USC Viterbi ospita gli strumenti per generare e gestire dati così voluminosi.

    Ewa Deelman, professoressa di ricerca in informatica e direttrice della ricerca presso l'ISI, ha continuamente progettato e aggiornato, dal 2000, un sistema automatizzato di gestione del flusso di lavoro chiamato Pegasus.

    Flussi di lavoro ottimizzati

    Pegasus, che prende il nome da Planning for Execution and Grids (PEG) e dall'amore di Deelman per i cavalli, trasforma gli esperimenti di ricerca in flussi di lavoro ottimizzati. Può essere utilizzato dagli scienziati in vari campi, dalla sismologia alla fisica alla bioinformatica, grazie al suo design astratto.

    Deelman la paragona a una ricetta di cucina:"Puoi utilizzare la stessa ricetta in cucine diverse. Utenti diversi possono eseguire la ricetta (il flusso di lavoro) ma con le proprie pentole (risorse computazionali). Quando progetti le cose in un modo sufficientemente ampio, loro diventare ampiamente applicabile."

    Nel 2016, gli scienziati del Laser Interferometer Gravitational-Wave Observatory (LIGO) hanno utilizzato Pegasus per catturare le onde gravitazionali nell'universo, confermando la teoria generale della relatività di Albert Einstein e guadagnandosi il premio Nobel 2017 per la fisica. Durante i 16 anni di collaborazione tra gli scienziati informatici dell'ISI e i membri di LIGO, il software ha gestito migliaia di flussi di lavoro con milioni di attività.

    Anche il Collaborative and Adaptive Sensing of the Atmosphere (CASA), un centro di ricerca ingegneristica dedicato al miglioramento della previsione e della risposta alle condizioni meteorologiche pericolose, ha portato i suoi gasdotti su Pegasus. Poiché le condizioni meteorologiche avverse possono rallentare e compromettere le risorse locali e la capacità di calcolo, il programma invia i dati di CASA alle infrastrutture cloud per garantire un flusso di lavoro continuo.

    Ispirato dai comportamenti degli animali

    CyberShake si è affidata a Pegasus negli ultimi 15 anni, compreso il suo studio più recente con la più ampia serie di simulazioni di terremoti mai realizzata. Pegasus ha gestito 2,5 petabyte di dati e ha eseguito 28.120 processi di flusso di lavoro in 108 giorni per produrre mappe di pericolosità sismica in 772.000 ore-nodo.

    "Senza Pegasus, non saremmo in alcun modo in grado di fare questo tipo di scienza", ha affermato Scott Callaghan, scienziato informatico presso SCEC e sviluppatore capo di CyberShake. SCEC espanderà CyberShake nella California settentrionale, utilizzando ora il supercomputer più veloce del mondo, Frontier. Pegasus continuerà a rimanere al loro fianco.

    "Ogni volta che eseguiamo uno di questi studi, incontriamo sempre sfide inaspettate. Ma sono fiducioso che, per qualsiasi problema relativo al flusso di lavoro, il team Pegasus sarà in grado di aiutarci a risolverli in modo da poter continuare a ottenere risultati scientifici all'avanguardia." fatto", ha detto Callaghan.

    Deelman sta ora conducendo ricerche e concettualizzando SWARM, un altro sistema di gestione del flusso di lavoro ispirato al sapiente coordinamento dei comportamenti di gruppo tra animali sociali, come le formiche. Ha inoltre intenzione di migliorare il processo decisionale di Pegasus con l'intelligenza artificiale, reinventando il modo in cui funzioneranno i sistemi di flusso di lavoro in futuro.

    Fornito dalla University of Southern California




    © Scienza https://it.scienceaq.com