Un refrigeratore integrato:la produzione di calore è ora il fattore limitante nell'elaborazione delle informazioni. Credito:Colourbox
L'elaborazione delle informazioni richiede molta energia. I sistemi informatici a risparmio energetico potrebbero rendere l'elaborazione più efficiente, ma l'efficienza di questi sistemi non può essere aumentata all'infinito, come mostrano i fisici dell'ETH.
Poiché i motori a vapore divennero sempre più diffusi nel XIX secolo, presto sorgeva la domanda su come ottimizzarli. Termodinamica, la teoria fisica che scaturì dallo studio di queste macchine, si è rivelato un approccio estremamente fruttuoso; è ancora un concetto centrale nell'ottimizzazione dell'uso dell'energia nei motori termici.
Il calore è un fattore critico
Anche nell'era dell'informazione di oggi, fisici e ingegneri sperano di fare uso di questa teoria; sta diventando sempre più chiaro che la frequenza di clock o il numero di chip utilizzati non sono i fattori limitanti per le prestazioni di un computer, ma piuttosto il suo turnover energetico. "Le prestazioni di un centro di calcolo dipendono principalmente da quanto calore può essere dissipato, "dice Renato Renner, Professore di Fisica Teorica e capo del gruppo di ricerca per la Teoria dell'Informazione Quantistica.
L'affermazione di Renner può essere illustrata dal boom di Bitcoin:non è la capacità di calcolo in sé, ma il consumo esorbitante di energia – che produce un'enorme quantità di calore – e i relativi costi che sono diventati i fattori decisivi per il futuro della criptovaluta. Il consumo energetico dei computer è diventato anche un fattore di costo significativo in altre aree.
Per il trattamento delle informazioni, la questione di completare le operazioni di calcolo nel modo più efficiente possibile in termini termodinamici sta diventando sempre più urgente – o per dirla in un altro modo:come possiamo condurre il maggior numero di operazioni di calcolo con la minor quantità di energia? Come con i motori a vapore, frigoriferi e turbine a gas, un principio fondamentale è qui in discussione:l'efficienza può essere aumentata indefinitamente, o c'è un limite fisico che fondamentalmente non può essere superato?
Combinando due teorie
Per il professore dell'ETH Renner, la risposta è chiara:c'è un tale limite. Insieme al suo dottorando Philippe Faist, che ora è postdoc al Caltech, ha mostrato in uno studio che presto apparirà in Revisione fisica X che l'efficienza dell'elaborazione delle informazioni non può essere aumentata indefinitamente - e non solo nei centri di calcolo utilizzati per calcolare le previsioni del tempo o elaborare i pagamenti, ma anche in biologia, per esempio quando si convertono immagini nel cervello o si riproducono informazioni genetiche nelle cellule. I due fisici hanno anche individuato i fattori decisivi che determinano il limite.
"Il nostro lavoro combina due teorie che, a prima vista, non hanno nulla a che fare l'uno con l'altro:la termodinamica, che descrive la conversione del calore nei processi meccanici, e teoria dell'informazione, che riguarda i principi del trattamento delle informazioni, " spiega Renner.
La connessione tra le due teorie è suggerita da una curiosità formale:la teoria dell'informazione usa un termine matematico che assomiglia formalmente alla definizione di entropia in termodinamica. Questo è il motivo per cui il termine entropia viene utilizzato anche nella teoria dell'informazione. Renner e Faist hanno ora dimostrato che questa somiglianza formale è più profonda di quanto si potrebbe supporre a prima vista.
Nessun limite fisso
In particolare, il limite di efficienza per il trattamento delle informazioni non è fissato, ma può essere influenzato:più capisci un sistema, più precisamente puoi adattare il software al design del chip, e quanto più efficiente sarà l'elaborazione delle informazioni. Questo è esattamente ciò che viene fatto oggi nel calcolo ad alte prestazioni. "In futuro, i programmatori dovranno anche tenere conto della termodinamica del calcolo, " dice Renner. "Il fattore decisivo non è ridurre al minimo il numero di operazioni di calcolo, ma implementando algoritmi che utilizzano la minor quantità di energia possibile."
Gli sviluppatori potrebbero anche utilizzare i sistemi biologici come punto di riferimento qui:"Vari studi hanno dimostrato che i nostri muscoli funzionano in modo molto efficiente in termini termodinamici, " spiega Renner. "Sarebbe ora interessante sapere quanto bene si comporta il nostro cervello nell'elaborazione dei segnali".
Il più vicino possibile all'optimum
Come fisico quantistico, L'attenzione di Renner su questa domanda non è casuale:con la termodinamica quantistica, negli ultimi anni è emerso un nuovo campo di ricerca che ha particolare rilevanza per la costruzione di computer quantistici. "È noto che i qubit, che sarà utilizzato dai futuri computer quantistici per eseguire calcoli, deve lavorare vicino all'ottimo termodinamico per ritardare la decoerenza, " dice Renner. "Questo fenomeno è un problema enorme quando si costruiscono computer quantistici, perché impedisce che gli stati di sovrapposizione della meccanica quantistica vengano mantenuti abbastanza a lungo da essere utilizzati per le operazioni di calcolo".