Di Kevin Carr, aggiornato il 30 agosto 2022
mtr/iStock/GettyImages
In chimica, la misurazione precisa non è un lusso:è una necessità. Un singolo passo falso nella quantificazione può portare a conclusioni errate. Per mitigare questo rischio, gli scienziati si affidano al Sistema internazionale di unità (SI) come standard universale, abbinato a pratiche rigorose che garantiscono sia accuratezza che precisione.
Utilizza le unità SI, mantieni accuratezza e precisione e rispetta i valori significativi per garantire risultati affidabili in laboratorio.
Il sistema SI, istituito dalla Conferenza generale sui pesi e le misure, fornisce un insieme coerente di unità di base:metri (m) per la lunghezza, litri (L) per il volume, chilogrammi (kg) per la massa, secondi (s) per il tempo, Kelvin (K) per la temperatura, ampere (A) per la corrente elettrica, mole (mol) per la quantità di sostanza e candela (cd) per l'intensità luminosa. Esprimendo ogni misurazione in queste unità, i ricercatori di tutto il mondo possono interpretare i dati senza ambiguità.
L'accuratezza si riferisce a quanto una misurazione è vicina al valore reale, mentre la precisione denota la riproducibilità di misurazioni ripetute. Uno strumento altamente accurato può comunque produrre letture imprecise se fluttua tra le prove. Al contrario, uno strumento che fornisce risultati strettamente raggruppati può essere sistematicamente compensato dal valore reale. Entrambi gli attributi sono essenziali per dati credibili.
La risoluzione dello strumento determina il limite di precisione. Ad esempio, un righello graduato in millimetri può risolvere fino a ±0,001 m. Quando si riporta una misurazione, il numero di cifre significative deve riflettere questa limitazione. Un valore di 0,4325 milioni contiene quattro cifre significative, indicando fiducia fino alla quarta cifra decimale.
• Ogni cifra diversa da zero è significativa.
• Gli zeri iniziali sono segnaposto e non significativi.
• Gli zeri finali in un numero decimale sono significativi.
• I numeri interi senza punto decimale sono ambigui; utilizzare un decimale per indicare il significato.
Quando si moltiplica o si divide, il risultato deve essere arrotondato al minor numero di cifre significative tra gli operandi. Esempio:2,43×9,4 =22,842 → 23 (due cifre significative).
Nelle somme e nelle differenze il risultato deve essere arrotondato alla cifra decimale meno precisa. Esempio:212,7 + 23,84565 + 1,08 =237,62565 → 237,6 (decimi).