• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Intel:dettagli dell'evento Hot Chips sui processori potenziati dall'intelligenza artificiale

    Credito:CC0 Dominio pubblico

    Gli osservatori della tecnologia questa settimana hanno ricevuto una serie di impressionanti lavori di accelerazione dell'intelligenza artificiale presso Intel, ovvero rivelazioni all'evento Hot Chips 2019, dove Intel ha presentato i dettagli dei suoi processori di rete neurale Nervana, (1) NNP-T per l'addestramento e (2) NNP-I per l'inferenza.

    Rivisitiamo prima il lavoro di inferenza (Spring Hill), e NNP-1, essendo stato sviluppato nel suo stabilimento di Haifa, Israele. NNP-1 sta per Neural Network Processor for Inference.

    La sua struttura gli consentirà di "far fronte a carichi di lavoro elevati utilizzando quantità minime di energia, " ha detto Steven Scheer, Reuters.

    Descrivendo la sua funzione, Ravie Lakshmananin, TNW, ha affermato che "si rivolge specificamente all'aspetto dell'inferenza dell'IA per dedurre nuove intuizioni. Facendo uso di un motore di calcolo dell'inferenza dell'IA appositamente costruito, NNP-I offre prestazioni migliori con una potenza inferiore."

    Da dove deriva il nome Nervana? Nervana Systems è la società che ha acquisito nel 2016. All'epoca, ha detto l'analista Karl Freund EE Times che aveva molto senso per Intel farlo. L'acquisizione di Nervana è stato un modo per entrare nel mercato del deep learning.

    Questa settimana, la domanda sul perché è stata trasformata in un perché no da un portavoce di Intel.

    "Per raggiungere una futura situazione di 'AI ovunque', dobbiamo gestire enormi quantità di dati generati e assicurarci che le organizzazioni siano dotate di ciò di cui hanno bisogno per fare un uso efficace dei dati ed elaborarli dove vengono raccolti, " disse Naveen Rao, fondatore di Nervana e ora direttore generale del gruppo di prodotti di intelligenza artificiale di Intel, in un rapporto di Reuters. "Questi computer hanno bisogno di accelerazione per applicazioni AI complesse".

    Osservatori tecnologici inclusi SilicioANGOLO dicevano che l'NNP-1 andava bene per i data center di grandi dimensioni che eseguono carichi di lavoro di intelligenza artificiale. Fossbytes ha affermato che un set completo di funzionalità RAS doveva garantire che possa essere facilmente implementato nei data center esistenti.

    Joel Hruska in ExtremeTech :"Intel afferma che NNP-I può fornire prestazioni ResNet50 di 3, 600 inferenze al secondo durante l'esecuzione a un TDP di 10 W. Che funziona a 4,8 TOPS/watt, che soddisfa gli obiettivi di efficienza complessiva di Intel (l'azienda afferma che NNP-I è più efficiente a wattaggi inferiori)."

    L'altro elemento di interesse alla conferenza Hot Chips 2019 è stato l'NNP-T, che sta per Intel Nervana Neural Network Processor for Training. Intel ha descritto l'NNP-T (nome in codice Spring Crest) come costruito appositamente (1) per addestrare modelli complessi di deep learning su vasta scala, e (2) semplificare la formazione distribuita con il supporto scale-out out-of-the-box.

    Paolo Alcorn, L'hardware di Tom , ha scritto su come "l'NNP-T è progettato per scalare senza colla da telaio a telaio, e persino rack-to-rack, senza un interruttore." Ha detto che la rete è stata progettata appositamente con un'elevata larghezza di banda e una bassa latenza in mente; a sua volta, l'architettura è quella di gestire "modelli massicci che scalano a 5 o 8 miliardi di parametri, o oltre."

    Naveen Rao ha commentato:"Intel Nervana NNP-T spinge i confini della formazione di deep learning. È costruito per dare priorità a due considerazioni chiave del mondo reale:come addestrare una rete il più velocemente possibile e come farlo entro un determinato budget di potenza". L'architettura è stata costruita da zero, senza carichi di lavoro legacy da supportare.

    Nell'immagine più grande, I tempi di Israele ha dichiarato:"Aziende come Intel, Nvidia, Qualcomm e Google e le startup a livello globale sono tutte a caccia di nuove tecnologie in questo campo, che comporta, tra le altre cose, la creazione dell'hardware per consentire l'elaborazione di enormi quantità di informazioni."

    L'hardware di elaborazione ha due scopi, ha scritto Shoshanna Solomon:(1) addestrando i computer a svolgere nuovi compiti e (2) insegnando loro a dedurre e quindi raggiungere intuizioni.

    Tutto sommato, Intel sta facendo la sua parte per consentire ai data scientist di fare entrambe le cose mentre lavorano su dati non strutturati e complessi.

    © 2019 Science X Network




    © Scienza https://it.scienceaq.com