• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  science >> Scienza >  >> Fisica
    Fattoria di schede grafiche per aiutare nella ricerca di nuova fisica a LHCb

    Credito:CC0 Dominio Pubblico

    Per la prima volta, dati da LHCb, un importante esperimento di fisica, verranno elaborati in una farm di GPU. Questa soluzione non è solo molto più economica, ma aiuterà a ridurre le dimensioni del cluster e ad elaborare i dati a velocità fino a 40 Tbit/s. Il documento di ricerca è stato pubblicato in Informatica e software per la grande scienza .

    Una task force interdisciplinare di ricercatori di una delle più grandi collaborazioni internazionali nel campo della fisica delle alte energie LHC beauty al CERN ha suggerito un nuovo modo per elaborare un enorme flusso di dati dal rivelatore di particelle. Il team è composto da ricercatori delle principali università europee e statunitensi. La parte russa del team era rappresentata da HSE e Yandex School of data analysis. L'obiettivo principale della proposta è fornire alla collaborazione un solido, soluzione efficiente e flessibile che potrebbe far fronte all'aumento del flusso di dati previsto durante il prossimo periodo di acquisizione dei dati. Questa soluzione non è solo molto più economica, ma aiuterà a ridurre le dimensioni del cluster e ad elaborare i dati a velocità fino a 40 Tbit/s.

    LHC e LHCb in particolare sono stati creati con lo scopo di cercare "nuova fisica, " qualcosa al di là del Modello Standard. Sebbene la ricerca abbia ottenuto un discreto successo, speranze di trovare particelle completamente nuove, come WIMP, Ha fallito. Molti fisici credono che per ottenere nuovi risultati, le statistiche sulla collisione di particelle all'LHC dovrebbero essere aumentate considerevolmente. Ma questo non richiede solo nuove apparecchiature di accelerazione - gli aggiornamenti sono attualmente in corso e dovrebbero essere completati entro il 2021-2022 - ma anche nuovi sistemi per elaborare i dati di collisione delle particelle. Per rilevare gli eventi su LHCb come correttamente registrati, la traccia ricostruita deve corrispondere a quella modellata dall'algoritmo. Se non c'è corrispondenza, i dati sono esclusi. Circa il 70% di tutte le collisioni nell'LHC sono escluse in questo modo, il che significa che per questa analisi preliminare sono necessarie capacità di calcolo serie.

    Un gruppo di ricercatori, compreso Andrey Ustyuzhanin, Mikhail Belous e Sergei Popov dell'Università HSE, ha presentato un nuovo documento con un algoritmo di una fattoria di GPU come primo trigger di alto livello (HLT1) per la registrazione e il rilevamento di eventi sul rilevatore LHCb. Il concetto è stato chiamato Allen, dopo Frances Allen, ricercatrice in teoria dei sistemi computazionali e prima donna ad aver ricevuto il Turing Award.

    A differenza dei precedenti trigger, il nuovo sistema trasferisce i dati dalle CPU alle GPU. Questi possono includere sia soluzioni professionali (come GPU Tesla, le più avanzate sul mercato) e le normali GPU "gamer" di NVIDIA o AMD. Grazie a questo, il grilletto Allen non dipende da uno specifico fornitore di apparecchiature, che facilita la creazione e riduce i costi. Con i sistemi più performanti, il trigger può elaborare dati fino a 40 Tbit/s.

    In uno schema standard, le informazioni su tutti gli eventi vanno dal rilevatore a un trigger di livello zero (L0), che consiste di chip programmabili (FPGA). Eseguono la selezione a livello di base. Nel nuovo schema, non ci sarà alcun trigger L0. I dati vanno immediatamente alla fattoria, dove ciascuna delle 300 GPU elabora simultaneamente milioni di eventi al secondo.

    Dopo la registrazione e il rilevamento dell'evento iniziale, solo i dati selezionati con preziose informazioni fisiche vanno ai normali processori x86 di trigger di secondo livello (HLT2). Ciò significa che il carico computazionale principale relativo alla classificazione degli eventi avviene presso la farm tramite GPU in via eccezionale.

    Questo framework aiuterà a risolvere in modo più efficace le attività di analisi e selezione degli eventi:le GPU vengono inizialmente create come un sistema multicanale con più core. E mentre le CPU sono orientate verso l'elaborazione consecutiva delle informazioni, Le GPU vengono utilizzate per enormi calcoli simultanei. Inoltre, hanno un insieme più specifico e limitato di compiti, che si aggiunge alle prestazioni.

    Secondo Denis Derkach, capo del team LHCb presso la HSE University, grazie alla decisione di non utilizzare le CPU, la nuova fattoria è adatta per la futura acquisizione di dati LHCb. Inoltre, Allen costerà molto meno di un sistema simile su CPU. Sarà anche più semplice rispetto ai precedenti sistemi di registrazione degli eventi presso gli acceleratori.

    Il vantaggio a lungo termine del nuovo approccio è particolarmente importante. L'attrezzatura per molti esperimenti di fisica è attualmente in fase di aggiornamento in tutto il mondo. E praticamente ogni aggiornamento di questo tipo porta a un flusso crescente di informazioni elaborate. In precedenza, gli esperimenti non hanno utilizzato eccezionalmente sistemi basati su GPU. Ma i vantaggi di Allen, un'architettura più semplice e un costo inferiore, sono così ovvi che questo approccio senza dubbio prenderà il sopravvento oltre l'esperimento LHCb.


    © Scienza https://it.scienceaq.com