• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  Science >> Scienza >  >> Chimica
    Nuovo modello di intelligenza artificiale:un passo avanti per la scienza dei materiali autonoma
    Il nuovo modello di intelligenza artificiale del PNNL per la scienza dei materiali può identificare modelli nelle immagini del microscopio elettronico senza la guida umana. Credito:Cortland Johnson | Laboratorio nazionale del Pacifico nordoccidentale

    La scienza dei materiali consente tecnologie all’avanguardia, dalle automobili leggere e dai computer potenti alle batterie ad alta capacità e ai veicoli spaziali durevoli. Ma per sviluppare materiali per queste applicazioni, è necessario analizzarli accuratamente attraverso numerose lenti microscopiche:un processo difficile e dispendioso in termini di tempo.



    Un nuovo modello di intelligenza artificiale (AI) sviluppato presso il Pacific Northwest National Laboratory (PNNL) è in grado di identificare modelli nelle immagini dei materiali al microscopio elettronico senza richiedere l’intervento umano, consentendo una scienza dei materiali più accurata e coerente. Rimuove inoltre una barriera alla sperimentazione autonoma sui microscopi elettronici, una componente importante dei cosiddetti "laboratori a guida autonoma".

    "In laboratorio facciamo molte diverse scienze dei materiali, sia che si tratti di sviluppare nuovi materiali per catalizzatori, stoccaggio di energia o elettronica", ha affermato Steven Spurgeon, uno scienziato dei materiali senior presso PNNL che ha lavorato per molti anni per applicare l'intelligenza artificiale nella scienza dei materiali. .

    "Lavoriamo molto anche per comprendere come i materiali si evolvono in ambienti diversi. Se metti, ad esempio, dei sensori in un reattore nucleare o in un veicolo spaziale, saranno esposti ad ambienti ad alta radiazione, portando al degrado nel tempo. tempo."

    Comprendere che il degrado, a sua volta, aiuta i ricercatori a progettare materiali migliori.

    In genere, per addestrare un modello di intelligenza artificiale a comprendere un fenomeno come il danno da radiazioni, i ricercatori producono scrupolosamente un set di dati di addestramento etichettato manualmente, tracciando manualmente le regioni danneggiate dalle radiazioni sulle immagini del microscopio elettronico. Quel set di dati etichettati manualmente verrebbe quindi utilizzato per addestrare un modello di intelligenza artificiale, che identificherebbe le caratteristiche condivise di quelle regioni identificate dall'uomo e cercherebbe di identificare regioni simili in immagini senza etichetta.

    Etichettare i set di dati a mano non è l'ideale. È un processo che richiede tempo, ma inoltre gli esseri umani sono più inclini a incoerenze e imprecisioni nella loro etichettatura e non sono così bravi a considerare contemporaneamente (ed etichettare in modo imparziale) diverse lenti (modalità) dello stesso campione.

    "In genere, l'essere umano fa valutazioni soggettive dei dati", ha detto Spurgeon. "E non possiamo farlo con il tipo di hardware che stiamo costruendo adesso."

    L'uso dei dati etichettati richiede inoltre che un essere umano sia "nel loop", mettendo in pausa il processo di sperimentazione mentre gli esseri umani interpretano o etichettano i dati da una nuova immagine al microscopio elettronico.

    La soluzione:un modello non supervisionato in grado di analizzare i dati senza coinvolgere gli esseri umani.

    Togliere le ruote da allenamento

    "Quello che volevamo fare era trovare un approccio non supervisionato per classificare le immagini del microscopio elettronico", ha affermato Arman Ter-Petrosyan, ricercatore associato al PNNL. "E al di là del problema di base della classificazione, volevamo trovare modi per utilizzare questi modelli per descrivere le diverse interfacce dei materiali."

    Il team ha iniziato con il modello AI ResNet50 e un set di dati preesistente di oltre 100.000 immagini di microscopia elettronica senza etichetta chiamato MicroNet. Utilizzando questo come base, hanno insegnato al modello a dividere ciascuna immagine al microscopio elettronico in una griglia di piccoli "chip", quindi gli hanno chiesto di calcolare le somiglianze complessive tra i chip e di assegnare loro punteggi di somiglianza tra loro. I gruppi di chip più simili tra loro vengono quindi ordinati in "comunità" che rappresentano parti dell'immagine con caratteristiche comparabili.

    Il risultato è una rappresentazione astratta dei modelli nei dati che possono poi essere dispersi nelle immagini del microscopio elettronico e nelle regioni codificate a colori dalle rispettive comunità, il tutto senza che sia necessario che un essere umano dica al modello cosa cercare.

    I ricercatori hanno applicato il nuovo modello per comprendere i danni da radiazioni nei materiali utilizzati in ambienti ad alta radiazione come i reattori nucleari. Il modello è in grado di "scheggiare" con precisione le aree degradate e ordinare l'immagine in comunità che rappresentano diversi livelli di danno da radiazioni.

    "Questo è un modo di prendere i dati e rappresentare le relazioni tra aree che non sono necessariamente una accanto all'altra nel materiale", ha spiegato Ter-Petrosyan.

    Meglio dell'umano

    La bellezza del modello, hanno spiegato i ricercatori, è che identifica queste comunità con straordinaria coerenza, producendo le regioni delineate dei dati etichettati senza nessuna delle deviazioni mercuriali dell’etichettatura umana. Ciò è utile non solo per valutare un'immagine ma anche per stabilire metriche oggettive per descrivere i diversi stati dei materiali.

    "Ho un materiale perfetto; lo irradio; inizia a rompersi", ha detto Spurgeon. "Come posso descrivere quel processo in modo da poter progettare meglio quel materiale per una particolare applicazione? Il nostro problema è che abbiamo i dati - li abbiamo da molto tempo - e siamo in grado di raccoglierli regolarmente, ma non lo usiamo per far uscire quei descrittori."

    Quando il modello AI analizza un'immagine di un materiale da un microscopio elettronico (a sinistra), divide l'immagine in "chip" che vengono poi ordinati in un grafico di rete di "comunità" (a destra) in base alle somiglianze tra i chip. Ciò consente la classificazione automatizzata delle proprietà e delle regioni dei materiali condivisi nell'immagine originale (a sinistra). Credito:Sara Levine | Laboratorio nazionale del Pacifico nordoccidentale

    Inoltre, i microscopi elettronici catturano più di una sola immagine alla volta:in realtà catturano varie immagini, letture spettroscopiche e schemi di diffrazione. Ma con l'etichettatura umana, i set di dati e i modelli di intelligenza artificiale sono quasi sempre limitati all'identificazione di modelli in un solo tipo di dati (o "modalità").

    Ma ora, con l’intelligenza artificiale senza supervisione, la porta è aperta a modelli multimodali che incorporano contemporaneamente più lenti di dati. "Quanti più tipi di dati aggiungi, tanto più potente e predittivo diventa il tuo modello", ha affermato Spurgeon.

    Sperimentazione autonoma

    Questo sviluppo è un altro passo verso una sperimentazione materiale robusta e autonoma sui microscopi elettronici presso il PNNL. L'innovativo progetto AutoEM (microscopio elettronico a trasmissione guidato dall'intelligenza artificiale) del laboratorio era già stato in grado di utilizzare l'intelligenza artificiale per unire e identificare al volo le caratteristiche nelle immagini del microscopio elettronico, consentendo ai ricercatori di selezionare punti di interesse che vengono poi indagati in modo intelligente da AutoEM. /P>

    Il nuovo modello espande tali capacità, consentendo il rapido rilevamento e la categorizzazione di regioni e tendenze simili. "Molto di questo è già stato implementato su più microscopi al PNNL", ha detto Spurgeon.

    Ora i ricercatori lavoreranno per mettere a punto il modello per comprendere nuove modalità di dati e fenomeni diversi e più complessi. Stanno anche lavorando per accelerare il modello in modo che possa essere utilizzato in tempo reale mentre i microscopi elettronici producono dati.

    "Andando avanti, vogliamo davvero dimostrare come ciò possa essere fatto praticamente", ha detto Spurgeon. "Non è solo un modello che eseguiamo offline:viene utilizzato dalle persone al momento dei nostri esperimenti. Ci auguriamo che questo costituisca un prototipo per altre persone nella comunità."

    I dettagli del modello sono pubblicati su arXiv server di prestampa.

    Ulteriori informazioni: Arman H Ter-Petrosyan et al, Segmentazione non supervisionata delle transizioni di fase ordine-disordine indotte dall'irradiazione nella microscopia elettronica, arXiv (2023). DOI:10.48550/arxiv.2311.08585

    Informazioni sul giornale: arXiv

    Fornito dal Pacific Northwest National Laboratory




    © Scienza https://it.scienceaq.com