• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  • Questo nuovo chip per computer è ideale per l'IA

    L'architettura di calcolo in memoria senza transistor consente tre attività di calcolo essenziali per le applicazioni di intelligenza artificiale:ricerca, archiviazione e operazioni di rete neurale. Credito:Nano lettere (2022). DOI:10.1021/acs.nanolett.2c03169

    L'intelligenza artificiale rappresenta una sfida importante per l'architettura informatica convenzionale. Nei modelli standard, l'archiviazione e l'elaborazione della memoria avvengono in parti diverse della macchina e i dati devono spostarsi dalla relativa area di archiviazione a una CPU o GPU per l'elaborazione.

    Il problema con questo design è che il movimento richiede tempo. Troppo tempo. Puoi avere l'unità di elaborazione più potente sul mercato, ma le sue prestazioni saranno limitate poiché è inattiva in attesa di dati, un problema noto come "muro di memoria" o "collo di bottiglia".

    Quando l'informatica supera il trasferimento di memoria, la latenza è inevitabile. Questi ritardi diventano seri problemi quando si tratta di enormi quantità di dati essenziali per l'apprendimento automatico e le applicazioni di intelligenza artificiale.

    Poiché il software di intelligenza artificiale continua a svilupparsi in modo sofisticato e l'ascesa dell'Internet delle cose pesante di sensori produce set di dati sempre più grandi, i ricercatori si sono concentrati sulla riprogettazione dell'hardware per fornire i miglioramenti richiesti in termini di velocità, agilità e consumo di energia.

    Un team di ricercatori della School of Engineering and Applied Science dell'Università della Pennsylvania, in collaborazione con scienziati dei Sandia National Laboratories e del Brookhaven National Laboratory, ha introdotto un'architettura di calcolo ideale per l'IA.

    Co-diretto da Deep Jariwala, professore assistente presso il Dipartimento di ingegneria elettrica e dei sistemi (ESE), Troy Olsson, professore associato in ESE, e Xiwen Liu, un dottorato di ricerca. candidato al Device Research and Engineering Laboratory di Jarawala, il gruppo di ricerca ha fatto affidamento su un approccio noto come compute-in-memory (CIM).

    Nelle architetture CIM, elaborazione e archiviazione avvengono nello stesso luogo, eliminando i tempi di trasferimento e riducendo al minimo il consumo di energia. Il nuovo design CIM del team, oggetto di un recente studio pubblicato su Nano Letters , è noto per essere completamente privo di transistor. Questo design è perfettamente in sintonia con il modo in cui le applicazioni Big Data hanno trasformato la natura dell'informatica.

    "Anche se utilizzati in un'architettura di calcolo in memoria, i transistor compromettono il tempo di accesso ai dati", afferma Jariwala. "Richiedono molto cablaggio nel circuito generale di un chip e quindi utilizzano tempo, spazio ed energia in eccesso rispetto a quanto vorremmo per le applicazioni di intelligenza artificiale. Il bello del nostro design senza transistor è che è semplice, piccolo e veloce e richiede pochissima energia."

    Il progresso non è solo a livello di progettazione del circuito. Questa nuova architettura di calcolo si basa sul precedente lavoro del team nella scienza dei materiali incentrato su un semiconduttore noto come nitruro di alluminio legato allo scandio (AlScN). AlScN consente la commutazione ferroelettrica, la cui fisica è più veloce e più efficiente dal punto di vista energetico rispetto agli elementi di memoria non volatile alternativi.

    "Uno degli attributi chiave di questo materiale è che può essere depositato a temperature sufficientemente basse da essere compatibili con le fonderie di silicio", afferma Olsson. "La maggior parte dei materiali ferroelettrici richiede temperature molto più elevate. Le proprietà speciali di AlScN significano che i nostri dispositivi di memoria dimostrati possono andare sopra lo strato di silicio in uno stack verticale etero-integrato. Pensa alla differenza tra un parcheggio a più piani con una capacità di cento auto e uno cento singoli parcheggi distribuiti su un unico lotto. Quale è più efficiente in termini di spazio? Lo stesso vale per le informazioni e i dispositivi in ​​un chip altamente miniaturizzato come il nostro. Questa efficienza è altrettanto importante per le applicazioni che richiedono vincoli di risorse, come come dispositivi mobili o indossabili, così come per applicazioni ad alta intensità energetica, come i data center."

    Nel 2021, il team ha stabilito la fattibilità di AlScN come potenza di calcolo in memoria. La sua capacità di miniaturizzazione, basso costo, efficienza delle risorse, facilità di produzione e fattibilità commerciale ha dimostrato notevoli progressi agli occhi della ricerca e dell'industria.

    Nello studio più recente sul design senza transistor, il team ha osservato che il loro ferrodiodo CIM potrebbe essere in grado di funzionare fino a 100 volte più velocemente di un'architettura informatica convenzionale.

    Altre ricerche nel campo hanno utilizzato con successo architetture di calcolo in memoria per migliorare le prestazioni delle applicazioni di intelligenza artificiale. Tuttavia, queste soluzioni sono state limitate, incapaci di superare il contraddittorio compromesso tra prestazioni e flessibilità. Anche l'architettura di calcolo che utilizza array di barre incrociate di memristor, un progetto che imita la struttura del cervello umano per supportare prestazioni di alto livello nelle operazioni di rete neurale, ha dimostrato velocità ammirevoli.

    Tuttavia, le operazioni della rete neurale, che utilizzano livelli di algoritmi per interpretare i dati e riconoscere i modelli, sono solo una delle numerose categorie chiave di attività relative ai dati necessarie per l'IA funzionale. Il design non è sufficientemente adattabile per offrire prestazioni adeguate su qualsiasi altra operazione di dati AI.

    Il design del ferrodiodo del team Penn offre una flessibilità rivoluzionaria che altre architetture di calcolo in memoria non offrono. Raggiunge una precisione superiore, eseguendo ugualmente bene non una ma tre operazioni sui dati essenziali che costituiscono la base di efficaci applicazioni di intelligenza artificiale. Supporta l'archiviazione su chip o la capacità di contenere l'enorme quantità di dati necessari per il deep learning, la ricerca parallela, una funzione che consente un filtraggio e un'analisi dei dati accurati e l'accelerazione della moltiplicazione della matrice, il processo principale del calcolo della rete neurale.

    "Diciamo", afferma Jariwala, "di avere un'applicazione di intelligenza artificiale che richiede una grande memoria per l'archiviazione, nonché la capacità di eseguire il riconoscimento di schemi e la ricerca. Pensa alle auto a guida autonoma o ai robot autonomi, che devono rispondere in modo rapido e preciso ad ambienti dinamici e imprevedibili. Utilizzando le architetture convenzionali, avresti bisogno di un'area diversa del chip per ogni funzione e bruceresti rapidamente la disponibilità e lo spazio. Il nostro design a ferrodiodo ti consente di fare tutto in un unico posto semplicemente cambiando il modo in cui si applicano delle tensioni per programmarlo."

    Il vantaggio di un chip CIM in grado di adattarsi a più operazioni sui dati è chiaro:quando il team ha eseguito una simulazione di un'attività di apprendimento automatico tramite il proprio chip, ha funzionato con un grado di precisione paragonabile al software basato sull'intelligenza artificiale in esecuzione su una CPU convenzionale.

    "Questa ricerca è estremamente significativa perché dimostra che possiamo fare affidamento sulla tecnologia della memoria per sviluppare chip che integrino più applicazioni di dati di intelligenza artificiale in un modo che sfidi davvero le tecnologie informatiche convenzionali", afferma Liu, il primo autore dello studio.

    L'approccio progettuale del team tiene conto del fatto che l'IA non è né hardware né software, ma una collaborazione essenziale tra i due.

    "È importante rendersi conto che tutto il computing AI attualmente eseguito è abilitato al software su un'architettura hardware al silicio progettata decenni fa", afferma Jariwala. "Questo è il motivo per cui l'intelligenza artificiale come campo è stata dominata dagli ingegneri informatici e del software. La riprogettazione fondamentale dell'hardware per l'IA sarà il prossimo grande punto di svolta nei semiconduttori e nella microelettronica. La direzione in cui stiamo andando ora è quella dell'hardware e del software co-design."

    "Progettiamo hardware che faccia funzionare meglio il software", aggiunge Liu, "e con questa nuova architettura ci assicuriamo che la tecnologia non sia solo veloce, ma anche precisa". + Esplora ulteriormente

    Una macro nvCIM da quattro megabit per dispositivi edge AI




    © Scienza https://it.scienceaq.com