Di Sean Mann
Aggiornato il 30 agosto 2022
La conversione tra notazione binaria e decimale con grandezza con segno è un concetto fondamentale nell'informatica, poiché consente una rappresentazione accurata di numeri interi sia positivi che negativi.
Ignora il bit di segno più a sinistra e tutti gli zeri iniziali visualizzati tra il bit di segno e il primo "1". Partendo dal bit di dati più a destra, assegnare potenze successive di due (2^0, 2^1, 2^2, ...) a ciascuna posizione. Ad esempio, nel numero di grandezza con segno 10000101 , i bit di dati rilevanti sono i tre più a destra, che corrispondono a 2^2=4, 2^1=2 e 2^0=1.
Aggiungi le potenze di due che corrispondono alle posizioni in cui il bit è 1. Nell'esempio sopra, 4+1=5.
Allega un segno negativo se il bit del segno (il bit all'estrema sinistra) è 1; in caso contrario, il numero è positivo. Pertanto, 10000101 si converte in -5 in decimale.