Credito:Princeton University
Spostando una proprietà fondamentale del calcolo, I ricercatori di Princeton hanno costruito un nuovo tipo di chip per computer che aumenta le prestazioni e riduce il fabbisogno energetico dei sistemi utilizzati per l'intelligenza artificiale.
Il chip, che funziona con linguaggi di programmazione standard, potrebbe essere particolarmente utile sui telefoni, orologi o altri dispositivi che si basano su computer ad alte prestazioni e hanno una durata della batteria limitata.
Il chip, basato su una tecnica chiamata elaborazione in memoria, è progettato per eliminare un collo di bottiglia computazionale primario che costringe i processori dei computer a spendere tempo ed energia per recuperare i dati dalla memoria archiviata. L'elaborazione in memoria esegue il calcolo direttamente nello storage, consentendo una maggiore velocità ed efficienza.
L'annuncio del nuovo chip, insieme a un sistema per programmarlo, segue da vicino un precedente rapporto secondo cui i ricercatori in collaborazione con Analog Devices Inc. avevano fabbricato circuiti per l'elaborazione in memoria. I test di laboratorio dei circuiti hanno dimostrato che il chip avrebbe prestazioni da decine a centinaia di volte più veloci di chip comparabili. Però, il chip iniziale non includeva tutti i componenti della versione più recente, quindi la sua capacità era limitata.
Nel nuovo bando, ricercatori nel laboratorio di Naveen Verma, professore associato di ingegneria elettrica, riferiscono di aver integrato i circuiti in memoria in un'architettura di processore programmabile. Il chip ora funziona con linguaggi di computer comuni come C.
"Il chip precedente era un motore forte e potente, " disse Hongyang Jia, uno studente laureato nel gruppo di Verma e uno dei progettisti di chip. "Questo chip è l'intera macchina."
Sebbene possa funzionare con un'ampia gamma di sistemi, il chip Princeton è destinato a supportare sistemi progettati per l'inferenza di deep learning, algoritmi che consentono ai computer di prendere decisioni ed eseguire attività complesse imparando da set di dati. I sistemi di deep learning dirigono cose come le auto a guida autonoma, sistemi di riconoscimento facciale e software diagnostico medico.
Verma ha detto che per molte applicazioni, il risparmio energetico del chip sarebbe fondamentale quanto l'aumento delle prestazioni. Questo perché molte applicazioni di intelligenza artificiale dovrebbero funzionare su dispositivi alimentati da batterie come telefoni cellulari o sensori medici indossabili. L'iPhone X di Apple, Per esempio, ha già un chip AI come parte dei suoi circuiti. Ma, sia il risparmio energetico che l'aumento delle prestazioni sono utili solo se è possibile accedervi dall'ampia base di applicazioni che ne hanno bisogno, ed è qui che entra in gioco la necessità di programmabilità.
"La classica architettura del computer separa il processore centrale, che sgretola i dati, dalla memoria, che memorizza i dati, " Ha detto Verma. "Molta dell'energia del computer viene utilizzata per spostare i dati avanti e indietro".
In parte, il nuovo chip è una risposta alla promessa di rallentamento della Legge di Moore. Nel 1965, Il fondatore di Intel Gordon Moore ha osservato che il numero di transistor sui circuiti integrati raddoppiava circa ogni anno, e l'industria ha anche notato che quei transistor sono diventati più veloci e più efficienti dal punto di vista energetico nel processo. Per decenni, queste osservazioni, che divenne nota come legge di Moore, ha sostenuto una trasformazione in cui i computer sono diventati sempre più potenti. Ma negli ultimi anni, i transistor non hanno continuato a migliorare come in passato, scontrandosi con i limiti fondamentali della loro fisica.
Verma, specializzato in progettazione di circuiti e sistemi, pensato a come aggirare questa compressione a livello di architettura piuttosto che a livello di transistor. Il calcolo necessario all'intelligenza artificiale sarebbe molto più efficiente se potesse essere eseguito nella stessa posizione della memoria del computer perché eliminerebbe il tempo e l'energia utilizzati per recuperare i dati archiviati lontano. Ciò renderebbe il computer più veloce senza aggiornare i transistor. Ma la creazione di un tale sistema ha rappresentato una sfida. I circuiti di memoria sono progettati il più densamente possibile per contenere grandi quantità di dati. Calcolo, d'altra parte, richiede che lo spazio sia dedicato per ulteriori transistor.
Un'opzione era sostituire i componenti elettrici chiamati condensatori per i transistor. I transistor sono essenzialmente interruttori che utilizzano le variazioni di tensione per indicare gli 1 e gli 0 che costituiscono i segnali binari del computer. Possono fare tutti i tipi di calcoli usando array di 1 e 0 cifre, ecco perché i sistemi sono chiamati digitali. I condensatori immagazzinano e rilasciano carica elettrica, quindi possono rappresentare qualsiasi numero, non solo 1 e 0. Verma si rese conto che con i condensatori poteva eseguire calcoli in uno spazio molto più denso di quanto non potesse fare con i transistor.
I condensatori possono anche essere realizzati in modo molto preciso su un chip, molto più dei transistor. Il nuovo design accoppia condensatori con celle convenzionali di memoria statica ad accesso casuale (SRAM) su un chip. La combinazione di condensatori e SRAM viene utilizzata per eseguire calcoli sui dati nel dominio analogico (non digitale), ma in modi affidabili e suscettibili di includere funzionalità di programmabilità. Ora, i circuiti di memoria possono eseguire calcoli in modi diretti dall'unità di elaborazione centrale del chip.
"L'elaborazione in memoria ha mostrato molte promesse negli ultimi anni, nell'affrontare realmente l'energia e la velocità dei sistemi informatici, " ha detto Verma. "Ma la grande domanda è stata se quella promessa sarebbe stata scalabile e utilizzabile dai progettisti di sistemi verso tutte le applicazioni di intelligenza artificiale a cui teniamo davvero. Ciò rende necessaria la programmabilità."