Credito:CC0 Dominio Pubblico
Scienziati della Higher School of Economics hanno sviluppato un metodo che consente ai fisici del Large Hadron Collider (LHC) di separare i vari tipi di particelle elementari con un alto grado di precisione. I risultati sono stati pubblicati nel Giornale di Fisica .
Uno dei maggiori problemi irrisolti della fisica moderna è la predominanza della materia sull'antimateria nell'universo. Si sono formati entrambi in un secondo dopo il Big Bang, in frazioni presumibilmente uguali, ei fisici stanno cercando di capire dove sia scomparsa l'antimateria. Già nel 1966, Lo scienziato russo Andrei Sakharov ha suggerito che lo squilibrio tra materia e antimateria è apparso a causa della violazione di CP, cioè., un'asimmetria tra particelle e antiparticelle. Così, solo le particelle sono rimaste dopo il loro annientamento (mutua distruzione) dei conseguenti contributi sbilanciati.
L'esperimento di bellezza Large Hadron Collider (LHCb) studia particelle instabili chiamate mesoni B. I loro decadimenti dimostrano la più evidente asimmetria tra materia e antimateria. LHCb è costituito da diversi rilevatori specializzati, nello specifico, calorimetri per misurare l'energia delle particelle neutre. I calorimetri identificano anche diversi tipi di particelle. Questi vengono effettuati mediante la ricerca e l'analisi dei corrispondenti cluster di deposizione di energia. È, però, non è facile separare i segnali da due tipi di fotoni:fotoni primari e fotoni dal decadimento energetico del mesone π0. Gli scienziati HSE hanno sviluppato un metodo per classificare questi due con elevata precisione.
Gli autori dello studio hanno applicato reti neurali artificiali e gradient boosting (un algoritmo di apprendimento automatico) per classificare le energie raccolte nelle singole celle del cluster energetico.
"Abbiamo preso una matrice cinque per cinque con un centro nella cella del calorimetro con l'energia più grande, "dice Fedor Ratnikov, uno degli autori dello studio e uno dei principali ricercatori del Laboratorio HSE di Metodi per l'Analisi dei Big Data. "Invece di analizzare le caratteristiche speciali costruite dalle energie grezze nelle cellule a grappolo, passiamo queste energie grezze direttamente all'algoritmo per l'analisi. La macchina è stata in grado di dare un senso ai dati meglio di una persona".
Rispetto al precedente metodo di pre-elaborazione dei dati, il nuovo metodo basato sull'apprendimento automatico ha quadruplicato le metriche di qualità per l'identificazione delle particelle sul calorimetro. L'algoritmo ha migliorato la qualità della classificazione da 0,89 a 0,97; più alta è questa cifra, meglio funziona il classificatore. Con un tasso di efficacia del 98% dell'identificazione iniziale dei fotoni, il nuovo approccio ha abbassato il tasso di identificazione dei falsi fotoni dal 60% al 30%.
Il metodo proposto è unico in quanto consente di identificare le particelle elementari senza studiare inizialmente le caratteristiche del cluster analizzato. "Passiamo i dati al machine learning nella speranza che l'algoritmo trovi correlazioni che potremmo non aver considerato. L'approccio ovviamente ha funzionato in questo caso, " Conclude Fedor Ratnikov.