• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Il deep learning si estende fino ai supercomputer scientifici

    I ricercatori hanno fornito un software di deep learning da 15 petaflop e l'hanno eseguito su Cori, un supercomputer presso il National Energy Research Scientific Computing Center, una struttura utente dell'Ufficio delle scienze del Dipartimento di energia. Credito:Lawrence Berkeley National Laboratory

    Apprendimento automatico, una forma di intelligenza artificiale, gode di un successo senza precedenti nelle applicazioni commerciali. Però, l'uso dell'apprendimento automatico nel calcolo ad alte prestazioni per la scienza è stato limitato. Come mai? Gli strumenti avanzati di machine learning non sono stati progettati per set di big data, come quelli usati per studiare stelle e pianeti. Un team di Intel, Centro nazionale di calcolo scientifico per la ricerca energetica (NERSC), e Stanford ha cambiato quella situazione. Hanno sviluppato il primo software di deep learning da 15 petaflop. Hanno dimostrato la sua capacità di gestire grandi set di dati tramite esecuzioni di test sul supercomputer Cori.

    Utilizzando tecniche di apprendimento automatico su supercomputer, gli scienziati potrebbero estrarre informazioni da grandi, set di dati complessi. Strumenti potenti, come acceleratori, produrre enormi set di dati. Il nuovo software potrebbe rendere i più grandi supercomputer del mondo in grado di adattare tali dati agli usi del deep learning. Le intuizioni risultanti potrebbero avvantaggiare la modellazione dei sistemi terrestri, energia di fusione, e astrofisica.

    Le tecniche di apprendimento automatico hanno il potenziale per consentire agli scienziati di estrarre preziose informazioni da grandi set di dati complessi prodotti da acceleratori, sorgenti luminose, telescopi, e simulazioni al computer. Sebbene queste tecniche abbiano avuto un grande successo in una varietà di applicazioni commerciali, il loro uso nel calcolo ad alte prestazioni per la scienza è stato limitato perché gli strumenti esistenti non sono stati progettati per funzionare con set di dati da terabyte a petabyte trovati in molti domini scientifici.

    Per affrontare questo problema una collaborazione tra Intel, il Centro nazionale di calcolo scientifico per la ricerca energetica, e la Stanford University ha lavorato per risolvere i problemi che sorgono quando si utilizzano tecniche di deep learning, una forma di apprendimento automatico, su set di dati da terabyte e petabyte. Il team ha sviluppato il primo software di deep learning da 15 petaflop. Hanno dimostrato la sua scalabilità per applicazioni ad alta intensità di dati eseguendo una serie di sessioni di addestramento utilizzando grandi set di dati scientifici. Le corse hanno utilizzato set di dati basati sulla fisica e sul clima su Cori, un supercomputer situato presso il National Energy Research Scientific Computing Center. Hanno raggiunto una velocità di picco tra 11,73 e 15,07 petaflop (a precisione singola) e una prestazione media sostenuta da 11,41 a 13,47 petaflop. (Un petaflop è un milione di miliardi di calcoli al secondo.)


    © Scienza https://it.scienceaq.com