Credito:CC0 Dominio Pubblico
Esperimenti al Large Hadron Collider (LHC), il più grande acceleratore di particelle del mondo presso il laboratorio europeo di fisica delle particelle CERN, produrre circa un milione di gigabyte di dati ogni secondo. Anche dopo la riduzione e la compressione, i dati accumulati in appena un'ora sono simili al volume di dati che Facebook raccoglie in un anno intero:troppo da archiviare e analizzare.
Per fortuna, i fisici delle particelle non devono occuparsi di tutti quei dati da soli. Collaborano con una forma di intelligenza artificiale chiamata machine learning che impara da sola come eseguire analisi complesse.
Un gruppo di ricercatori, tra cui scienziati del Dipartimento dell'Energia del SLAC National Accelerator Laboratory e del Fermi National Accelerator Laboratory, riassumere le applicazioni attuali e le prospettive future dell'apprendimento automatico nella fisica delle particelle in un articolo pubblicato oggi in Natura .
"Rispetto a un algoritmo informatico tradizionale che progettiamo per eseguire un'analisi specifica, progettiamo un algoritmo di apprendimento automatico per capire da solo come eseguire varie analisi, potenzialmente risparmiandoci innumerevoli ore di lavoro di progettazione e analisi, " afferma il coautore Alexander Radovic del College of William &Mary, che lavora all'esperimento del neutrino NOvA.
Setacciare i big data
Per gestire i giganteschi volumi di dati prodotti in esperimenti moderni come quelli dell'LHC, i ricercatori applicano quelli che chiamano "trigger":hardware e software dedicati che decidono in tempo reale quali dati conservare per l'analisi e quali dati eliminare.
Nell'LHCb, un esperimento che potrebbe far luce sul perché c'è così tanta più materia che antimateria nell'universo, gli algoritmi di apprendimento automatico prendono almeno il 70% di queste decisioni, dice lo scienziato di LHCb Mike Williams del Massachusetts Institute of Technology, uno degli autori della sintesi Nature. "L'apprendimento automatico gioca un ruolo in quasi tutti gli aspetti relativi ai dati dell'esperimento, dai trigger all'analisi dei dati rimanenti, " lui dice.
L'apprendimento automatico si è dimostrato estremamente efficace nell'area dell'analisi. I giganteschi rivelatori ATLAS e CMS dell'LHC, che ha permesso la scoperta del bosone di Higgs, ciascuno ha milioni di elementi di rilevamento i cui segnali devono essere messi insieme per ottenere risultati significativi.
"Questi segnali costituiscono uno spazio dati complesso, " dice Michael Kagan di SLAC, che lavora su ATLAS ed è stato anche autore della rivista Nature. "Dobbiamo capire il rapporto tra loro per trarre conclusioni, per esempio che una certa traccia di particelle nel rivelatore è stata prodotta da un elettrone, un fotone o qualcos'altro."
Anche gli esperimenti sui neutrini beneficiano dell'apprendimento automatico. NOVA, gestita da Fermilab, studia come i neutrini cambiano da un tipo all'altro mentre viaggiano attraverso la Terra. Queste oscillazioni di neutrini potrebbero potenzialmente rivelare l'esistenza di un nuovo tipo di neutrino che alcune teorie prevedono essere una particella di materia oscura. I rivelatori di NOvA stanno attenti alle particelle cariche prodotte quando i neutrini colpiscono il materiale del rivelatore, e gli algoritmi di machine learning li identificano.
Dal machine learning al deep learning
Recenti sviluppi nell'apprendimento automatico, spesso chiamato "apprendimento profondo, " promettono di estendere ulteriormente le applicazioni nella fisica delle particelle. Il deep learning si riferisce tipicamente all'uso di reti neurali:algoritmi informatici con un'architettura ispirata alla fitta rete di neuroni nel cervello umano.
Queste reti neurali apprendono da sole come eseguire determinate attività di analisi durante un periodo di addestramento in cui vengono mostrati dati di esempio, come simulazioni, e ha detto come si sono comportati bene.
Fino a poco tempo fa, il successo delle reti neurali è stato limitato perché addestrarle era molto difficile, afferma il co-autore Kazuhiro Terao, un ricercatore SLAC che lavora all'esperimento sui neutrini MicroBooNE, che studia le oscillazioni dei neutrini come parte del programma di neutrini a base breve del Fermilab e diventerà un componente del futuro Deep Underground Neutrino Experiment (DUNE) presso la Long-Baseline Neutrino Facility (LBNF). "Queste difficoltà ci hanno limitato a reti neurali profonde solo un paio di strati, " dice. "Grazie ai progressi negli algoritmi e nell'hardware di calcolo, ora sappiamo molto meglio come costruire e addestrare reti più capaci a centinaia o migliaia di strati profondi."
Molti dei progressi nel deep learning sono guidati dalle applicazioni commerciali dei giganti della tecnologia e dall'esplosione di dati che hanno generato negli ultimi due decenni. "NOVA, Per esempio, utilizza una rete neurale ispirata all'architettura di GoogleNet, " Dice Radovic. "Ha migliorato l'esperimento in modi che altrimenti avrebbero potuto essere raggiunti solo raccogliendo il 30 percento in più di dati".
Un terreno fertile per l'innovazione
Gli algoritmi di apprendimento automatico diventano ogni giorno più sofisticati e perfezionati, aprendo opportunità senza precedenti per risolvere problemi di fisica delle particelle.
Molti dei nuovi compiti per cui potrebbero essere utilizzati sono legati alla visione artificiale, dice Kagan. "È simile al riconoscimento facciale, tranne che nella fisica delle particelle, le caratteristiche dell'immagine sono più astratte di orecchie e nasi."
Alcuni esperimenti come NOvA e MicroBooNE producono dati che possono essere facilmente tradotti in immagini reali, e l'intelligenza artificiale può essere prontamente utilizzata per identificare le caratteristiche in esse contenute. Negli esperimenti di LHC, d'altra parte, le immagini devono prima essere ricostruite da un oscuro pool di dati generati da milioni di elementi sensori.
"Ma anche se i dati non sembrano immagini, possiamo ancora utilizzare metodi di visione artificiale se siamo in grado di elaborare i dati nel modo giusto, "dice Radovic.
Un'area in cui questo approccio potrebbe essere molto utile è l'analisi dei getti di particelle prodotti in gran numero all'LHC. I getti sono spruzzi stretti di particelle le cui singole tracce sono estremamente difficili da separare. La tecnologia di visione artificiale potrebbe aiutare a identificare le caratteristiche dei jet.
Un'altra applicazione emergente del deep learning è la simulazione di dati di fisica delle particelle che prevedono, Per esempio, ciò che accade nelle collisioni di particelle all'LHC e può essere confrontato con i dati effettivi. Simulazioni come queste sono in genere lente e richiedono un'immensa potenza di calcolo. IA, d'altra parte, potrebbe fare simulazioni molto più velocemente, potenzialmente complementare all'approccio tradizionale.
"Solo pochi anni fa, nessuno avrebbe mai pensato che le reti neurali profonde potessero essere addestrate per "allucinare" i dati dal rumore casuale, " dice Kagan. "Anche se questo è un lavoro molto precoce, mostra molte promesse e può aiutare con le sfide dei dati del futuro."
Beneficiare di un sano scetticismo
Nonostante tutti i progressi evidenti, gli appassionati di machine learning affrontano spesso lo scetticismo dei loro partner di collaborazione, in parte perché gli algoritmi di apprendimento automatico funzionano principalmente come "scatole nere" che forniscono pochissime informazioni su come hanno raggiunto una certa conclusione.
"Lo scetticismo è molto salutare, " dice Williams. "Se usi l'apprendimento automatico per i trigger che scartano i dati, come facciamo in LHCb, allora devi essere estremamente cauto e impostare l'asticella molto in alto."
Perciò, stabilire l'apprendimento automatico nella fisica delle particelle richiede sforzi costanti per comprendere meglio il funzionamento interno degli algoritmi e per eseguire controlli incrociati con dati reali quando possibile.
"Dovremmo sempre cercare di capire cosa fa un algoritmo informatico e valutarne sempre l'esito, " dice Terao. "Questo è vero per ogni algoritmo, non solo apprendimento automatico. Così, essere scettici non dovrebbe fermare il progresso".
I rapidi progressi hanno alcuni ricercatori che sognano ciò che potrebbe diventare possibile nel prossimo futuro. "Oggi utilizziamo l'apprendimento automatico principalmente per trovare funzionalità nei nostri dati che possono aiutarci a rispondere ad alcune delle nostre domande, " dice Terao. "Tra dieci anni, gli algoritmi di apprendimento automatico potrebbero essere in grado di porre le proprie domande in modo indipendente e riconoscere quando trovano nuova fisica".