Credito:CC0 Dominio Pubblico
Un nuovo modello teorico prevede la compressione della luce alla giusta quantità per trasmettere accuratamente le informazioni utilizzando particelle subatomiche. Gli scienziati dell'Università di Hokkaido e dell'Università di Kyoto riferiscono che questo approccio teorico al calcolo quantistico è 10 miliardi di volte più tollerante agli errori rispetto agli attuali modelli teorici. Il loro metodo trova applicazione nei computer quantistici che utilizzano le diverse proprietà delle particelle subatomiche per trasmettere, elaborare e memorizzare quantità estremamente elevate di informazioni complesse, consentendo la modellazione di processi chimici complessi molto meglio e più velocemente dei computer moderni.
I computer attualmente memorizzano i dati codificandoli in "bit". Un bit può esistere in uno dei due stati:zero e uno. Gli scienziati hanno studiato modi per impiegare particelle subatomiche, chiamati "bit quantici, " che può esistere in più di due stati, per l'archiviazione e l'elaborazione di quantità di informazioni molto più vaste. I bit quantistici sono gli elementi costitutivi dei computer quantistici.
Uno di questi approcci prevede l'utilizzo delle proprietà intrinseche dei fotoni di luce, codificare le informazioni come bit quantistici in un raggio di luce digitalizzando i modelli del campo elettromagnetico. Ma le informazioni codificate possono essere perse dalle onde luminose durante il calcolo quantistico, portando ad un accumulo di errori. Per ridurre la perdita di informazioni, gli scienziati hanno sperimentato la "spremitura" della luce. La spremitura è un processo che rimuove minuscole fluttuazioni a livello quantistico, denominato rumore, da un campo elettromagnetico. Il rumore introduce un certo livello di incertezza nell'ampiezza e nella fase del campo elettromagnetico. Squeezing è quindi uno strumento efficiente per l'implementazione ottica dei computer quantistici, ma l'uso attuale è inadeguato.
In un articolo pubblicato sulla rivista Revisione fisica X , Akihisa Tomita, un fisico applicato all'Università di Hokkaido, ei suoi colleghi hanno suggerito un nuovo modo per ridurre drasticamente gli errori quando si utilizza questo approccio. Hanno sviluppato un modello teorico che utilizza sia le proprietà dei bit quantistici sia le modalità del campo elettromagnetico in cui esistono. L'approccio prevede la compressione della luce rimuovendo i bit quantistici soggetti a errori, quando i bit quantistici si raggruppano insieme.
Questo modello è 10 miliardi di volte più tollerante agli errori rispetto agli attuali metodi sperimentali, il che significa che tollera fino a un errore ogni 10, 000 calcoli. "L'approccio è realizzabile utilizzando le tecnologie attualmente disponibili, e potrebbe far avanzare ulteriormente gli sviluppi nella ricerca sull'informatica quantistica, " dice Akihisa Tomita dell'Università di Hokkaido.