La scienza dei materiali consente tecnologie all’avanguardia, dalle automobili leggere e dai computer potenti alle batterie ad alta capacità e ai veicoli spaziali durevoli. Ma per sviluppare materiali per queste applicazioni, è necessario analizzarli accuratamente attraverso numerose lenti microscopiche:un processo difficile e dispendioso in termini di tempo.
Un nuovo modello di intelligenza artificiale (AI) sviluppato presso il Pacific Northwest National Laboratory (PNNL) è in grado di identificare modelli nelle immagini dei materiali al microscopio elettronico senza richiedere l’intervento umano, consentendo una scienza dei materiali più accurata e coerente. Rimuove inoltre una barriera alla sperimentazione autonoma sui microscopi elettronici, una componente importante dei cosiddetti "laboratori a guida autonoma".
"In laboratorio facciamo molte diverse scienze dei materiali, sia che si tratti di sviluppare nuovi materiali per catalizzatori, stoccaggio di energia o elettronica", ha affermato Steven Spurgeon, uno scienziato dei materiali senior presso PNNL che ha lavorato per molti anni per applicare l'intelligenza artificiale nella scienza dei materiali. .
"Lavoriamo molto anche per comprendere come i materiali si evolvono in ambienti diversi. Se metti, ad esempio, dei sensori in un reattore nucleare o in un veicolo spaziale, saranno esposti ad ambienti ad alta radiazione, portando al degrado nel tempo. tempo."
Comprendere che il degrado, a sua volta, aiuta i ricercatori a progettare materiali migliori.
In genere, per addestrare un modello di intelligenza artificiale a comprendere un fenomeno come il danno da radiazioni, i ricercatori producono scrupolosamente un set di dati di addestramento etichettato manualmente, tracciando manualmente le regioni danneggiate dalle radiazioni sulle immagini del microscopio elettronico. Quel set di dati etichettati manualmente verrebbe quindi utilizzato per addestrare un modello di intelligenza artificiale, che identificherebbe le caratteristiche condivise di quelle regioni identificate dall'uomo e cercherebbe di identificare regioni simili in immagini senza etichetta.
Etichettare i set di dati a mano non è l'ideale. È un processo che richiede tempo, ma inoltre gli esseri umani sono più inclini a incoerenze e imprecisioni nella loro etichettatura e non sono così bravi a considerare contemporaneamente (ed etichettare in modo imparziale) diverse lenti (modalità) dello stesso campione.
"In genere, l'essere umano fa valutazioni soggettive dei dati", ha detto Spurgeon. "E non possiamo farlo con il tipo di hardware che stiamo costruendo adesso."
L'uso dei dati etichettati richiede inoltre che un essere umano sia "nel loop", mettendo in pausa il processo di sperimentazione mentre gli esseri umani interpretano o etichettano i dati da una nuova immagine al microscopio elettronico.
La soluzione:un modello non supervisionato in grado di analizzare i dati senza coinvolgere gli esseri umani.
Togliere le ruote da allenamento
"Quello che volevamo fare era trovare un approccio non supervisionato per classificare le immagini del microscopio elettronico", ha affermato Arman Ter-Petrosyan, ricercatore associato al PNNL. "E al di là del problema di base della classificazione, volevamo trovare modi per utilizzare questi modelli per descrivere le diverse interfacce dei materiali."
Il team ha iniziato con il modello AI ResNet50 e un set di dati preesistente di oltre 100.000 immagini di microscopia elettronica senza etichetta chiamato MicroNet. Utilizzando questo come base, hanno insegnato al modello a dividere ciascuna immagine al microscopio elettronico in una griglia di piccoli "chip", quindi gli hanno chiesto di calcolare le somiglianze complessive tra i chip e di assegnare loro punteggi di somiglianza tra loro. I gruppi di chip più simili tra loro vengono quindi ordinati in "comunità" che rappresentano parti dell'immagine con caratteristiche comparabili.
Il risultato è una rappresentazione astratta dei modelli nei dati che possono poi essere dispersi nelle immagini del microscopio elettronico e nelle regioni codificate a colori dalle rispettive comunità, il tutto senza che sia necessario che un essere umano dica al modello cosa cercare.
I ricercatori hanno applicato il nuovo modello per comprendere i danni da radiazioni nei materiali utilizzati in ambienti ad alta radiazione come i reattori nucleari. Il modello è in grado di "scheggiare" con precisione le aree degradate e ordinare l'immagine in comunità che rappresentano diversi livelli di danno da radiazioni.
"Questo è un modo di prendere i dati e rappresentare le relazioni tra aree che non sono necessariamente una accanto all'altra nel materiale", ha spiegato Ter-Petrosyan.
Meglio dell'umano
La bellezza del modello, hanno spiegato i ricercatori, è che identifica queste comunità con straordinaria coerenza, producendo le regioni delineate dei dati etichettati senza nessuna delle deviazioni mercuriali dell’etichettatura umana. Ciò è utile non solo per valutare un'immagine ma anche per stabilire metriche oggettive per descrivere i diversi stati dei materiali.
"Ho un materiale perfetto; lo irradio; inizia a rompersi", ha detto Spurgeon. "Come posso descrivere quel processo in modo da poter progettare meglio quel materiale per una particolare applicazione? Il nostro problema è che abbiamo i dati - li abbiamo da molto tempo - e siamo in grado di raccoglierli regolarmente, ma non lo usiamo per far uscire quei descrittori."