Credito:Pixabay/CC0 di dominio pubblico
È passato quasi un secolo da quando l'astronomo Fritz Zwicky ha calcolato per la prima volta la massa dell'ammasso di coma, una densa raccolta di quasi 1.000 galassie situate nell'universo vicino. Ma stimare la massa di qualcosa di così grande e denso, per non parlare di 320 milioni di anni luce di distanza, ha la sua parte di problemi, allora e ora. Le misurazioni iniziali di Zwicky, e le molte fatte da allora, sono afflitte da fonti di errore che distorcono la massa più o meno.
Ora, utilizzando gli strumenti del machine learning, un team guidato dai fisici della Carnegie Mellon University ha sviluppato un metodo di deep learning che stima accuratamente la massa del Coma Cluster e mitiga efficacemente le fonti di errore.
"Le persone hanno fatto stime di massa del Cluster Coma per molti, molti anni. Ma dimostrando che i nostri metodi di apprendimento automatico sono coerenti con queste precedenti stime di massa, stiamo creando fiducia in questi nuovi metodi molto potenti che sono caldi nel campo della cosmologia in questo momento", ha affermato Matthew Ho, uno studente laureato al quinto anno presso il McWilliams Center for Cosmology del Dipartimento di Fisica e membro del Carnegie Mellon's AI Planning Institute for Physics of the Future.
I metodi di apprendimento automatico sono utilizzati con successo in una varietà di campi per trovare modelli in dati complessi, ma hanno preso piede nella ricerca cosmologica solo nell'ultimo decennio. Per alcuni ricercatori del settore, questi metodi presentano una grande preoccupazione:dal momento che è difficile comprendere il funzionamento interno di un modello complesso di apprendimento automatico, ci si può fidare di loro per fare ciò per cui sono progettati? Ho e i suoi colleghi hanno deciso di affrontare queste riserve con le loro ultime ricerche, pubblicate su Nature Astronomy .
Per calcolare la massa dell'ammasso di coma, Zwicky e altri hanno utilizzato una misurazione dinamica della massa, in cui hanno studiato il movimento o la velocità degli oggetti in orbita all'interno e intorno all'ammasso e quindi hanno utilizzato la loro comprensione della gravità per dedurre la massa dell'ammasso. Ma questa misurazione è suscettibile di una serie di errori. Gli ammassi di galassie esistono come nodi in un'enorme rete di materia distribuita in tutto l'universo e sono costantemente in collisione e fondersi tra loro, il che distorce il profilo di velocità delle galassie costituenti. E poiché gli astronomi stanno osservando l'ammasso da una grande distanza, ci sono molte altre cose nel mezzo che possono sembrare e agire come se fossero parte dell'ammasso di galassie, il che può influenzare la misurazione della massa. Ricerche recenti hanno compiuto progressi verso la quantificazione e la contabilizzazione dell'effetto di questi errori, ma i metodi basati sull'apprendimento automatico offrono un approccio innovativo basato sui dati, secondo Ho.
"Il nostro metodo di apprendimento profondo impara dai dati reali quali sono le misurazioni utili e cosa non lo sono", ha affermato Ho, aggiungendo che il loro metodo elimina gli errori dalle galassie intersecanti (effetti di selezione) e tiene conto di varie forme di galassie (effetti fisici). "L'utilizzo di questi metodi basati sui dati rende le nostre previsioni migliori e automatizzate."
"Una delle principali carenze degli approcci standard di apprendimento automatico è che di solito producono risultati senza incertezze", ha aggiunto il professore associato di fisica Hy Trac, consigliere di Ho. "Il nostro metodo include solide statistiche bayesiane, che ci consentono di quantificare l'incertezza nei nostri risultati."
Ho e i suoi colleghi hanno sviluppato il loro nuovo metodo personalizzando un noto strumento di apprendimento automatico chiamato rete neurale convoluzionale, che è un tipo di algoritmo di apprendimento profondo utilizzato nel riconoscimento delle immagini. I ricercatori hanno addestrato il loro modello alimentandolo con i dati delle simulazioni cosmologiche dell'universo. Il modello è stato appreso osservando le caratteristiche osservabili di migliaia di ammassi di galassie, la cui massa è già nota. Dopo un'analisi approfondita della gestione dei dati di simulazione da parte del modello, Ho lo ha applicato a un sistema reale, il Coma Cluster, la cui vera massa non è nota. Il metodo di Ho ha calcolato una stima di massa coerente con la maggior parte delle stime di massa effettuate dagli anni '80. Questa è la prima volta che questa specifica metodologia di apprendimento automatico viene applicata a un sistema di osservazione.
"Per costruire l'affidabilità dei modelli di apprendimento automatico, è importante convalidare le previsioni del modello su sistemi ben studiati, come Coma", ha affermato Ho. "Stiamo attualmente effettuando un controllo più rigoroso e approfondito del nostro metodo. I risultati promettenti sono un passo importante verso l'applicazione del nostro metodo su dati nuovi e non studiati."
Modelli come questi saranno fondamentali per il futuro, soprattutto quando le indagini spettroscopiche su larga scala, come il Dark Energy Spectroscopic Instrument, l'Osservatorio Vera C. Rubin e Euclid, inizieranno a rilasciare la grande quantità di dati che stanno raccogliendo sul cielo .
"Presto avremo un flusso di dati su scala petabyte", ha spiegato Ho. "È enorme. È impossibile per gli esseri umani analizzarlo a mano. Mentre lavoriamo alla costruzione di modelli che possono essere robusti stimatori di cose come la massa mitigando le fonti di errore, un altro aspetto importante è che devono essere efficienti dal punto di vista computazionale se siamo elaborerà questo enorme flusso di dati da questi nuovi sondaggi. Ed è esattamente ciò che stiamo cercando di affrontare:utilizzando l'apprendimento automatico per migliorare le nostre analisi e renderle più veloci". + Esplora ulteriormente