• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Il nuovo metodo per confrontare le reti neurali mostra come funziona l'intelligenza artificiale

    I ricercatori di Los Alamos stanno cercando nuovi modi per confrontare le reti neurali. Questa immagine è stata creata con un software di intelligenza artificiale chiamato Stable Diffusion, utilizzando il prompt "Sbirciando nella scatola nera delle reti neurali". Credito:Los Alamos National Laboratory

    Un team del Los Alamos National Laboratory ha sviluppato un nuovo approccio per confrontare le reti neurali che guardano all'interno della "scatola nera" dell'intelligenza artificiale per aiutare i ricercatori a comprendere il comportamento della rete neurale. Le reti neurali riconoscono i modelli nei set di dati; sono utilizzati ovunque nella società, in applicazioni come assistenti virtuali, sistemi di riconoscimento facciale e auto a guida autonoma.

    "La comunità di ricerca sull'intelligenza artificiale non ha necessariamente una comprensione completa di ciò che stanno facendo le reti neurali; ci danno buoni risultati, ma non sappiamo come o perché", ha affermato Haydn Jones, ricercatore dell'Advanced Research in Cyber Gruppo Sistemi a Los Alamos. "Il nostro nuovo metodo fa un lavoro migliore nel confrontare le reti neurali, che è un passo cruciale verso una migliore comprensione della matematica alla base dell'IA."

    Jones è l'autore principale del documento "Se ne hai addestrato uno, li hai addestrati tutti:la somiglianza tra le architetture aumenta con la robustezza", che è stato presentato di recente alla conferenza sull'incertezza nell'intelligenza artificiale. Oltre a studiare la somiglianza di rete, il documento è un passo cruciale verso la caratterizzazione del comportamento di reti neurali robuste.

    Le reti neurali sono ad alte prestazioni, ma fragili. Ad esempio, le auto a guida autonoma utilizzano le reti neurali per rilevare i segnali. Quando le condizioni sono ideali, lo fanno abbastanza bene. Tuttavia, la più piccola aberrazione, come un adesivo su un segnale di stop, può far sì che la rete neurale identifichi erroneamente il segnale e non si fermi mai.

    Per migliorare le reti neurali, i ricercatori stanno cercando modi per migliorare la robustezza della rete. Un approccio all'avanguardia prevede l'"attacco" delle reti durante il loro processo di formazione. I ricercatori introducono intenzionalmente aberrazioni e addestrano l'IA a ignorarle. Questo processo è chiamato formazione del contraddittorio e sostanzialmente rende più difficile ingannare le reti.

    Jones, i collaboratori di Los Alamos Jacob Springer e Garrett Kenyon, e il mentore di Jones, Juston Moore, hanno applicato la loro nuova metrica di somiglianza di rete a reti neurali addestrate in modo contraddittorio e hanno scoperto, sorprendentemente, che l'addestramento contraddittorio fa convergere le reti neurali nel dominio della visione artificiale rappresentazioni dei dati molto simili, indipendentemente dall'architettura di rete, all'aumentare dell'entità dell'attacco.

    "Abbiamo scoperto che quando addestriamo le reti neurali per essere robuste contro gli attacchi del contraddittorio, iniziano a fare le stesse cose", ha affermato Jones.

    C'è stato un grande sforzo nell'industria e nella comunità accademica alla ricerca della "giusta architettura" per le reti neurali, ma i risultati del team di Los Alamos indicano che l'introduzione della formazione contraddittoria restringe sostanzialmente questo spazio di ricerca. Di conseguenza, la comunità di ricerca sull'IA potrebbe non aver bisogno di dedicare molto tempo all'esplorazione di nuove architetture, sapendo che la formazione del contraddittorio fa convergere architetture diverse verso soluzioni simili.

    "Scoprire che le reti neurali robuste sono simili tra loro, stiamo rendendo più facile capire come l'IA robusta potrebbe davvero funzionare. Potremmo anche scoprire suggerimenti su come si verifica la percezione negli esseri umani e in altri animali", ha affermato Jones. + Esplora ulteriormente

    Rompere le IA per renderle migliori




    © Scienza https://it.scienceaq.com