Quali sono i parametri tecnici e le misure di un multimetro digitale?
1, risoluzione, parola e bit
La risoluzione è la capacità di un multimetro di discriminare piccoli segnali durante le misurazioni. Conoscendo la risoluzione del multimetro, puoi determinare se è possibile osservare un cambiamento molto piccolo nel segnale misurato. Ad esempio, se un multimetro digitale ha una risoluzione di 1 mV sulla scala 4 V, può osservare una variazione di 1 mV (1/1000 V) durante la lettura di 1 V.
Se dovessi misurare una lunghezza minima di 1/4 di pollice (o 1 mm), non compreresti un righello con una scala minima di 1 pollice (o 1 cm). Se la temperatura normale è di 98,6 gradi Fahrenheit, un termometro che misura solo gradi interi non è molto utile. Hai bisogno di un termometro con una risoluzione di 0,1 grado.
Le parole "bit" e "parola" vengono utilizzate per descrivere la risoluzione di un multimetro. I multimetri digitali possono essere raggruppati in base al numero di parole o bit visualizzati.
Un multimetro a 3½ cifre visualizza tre cifre intere (da 0 a 9) e una "mezza cifra" (viene visualizzato o lasciato vuoto solo un "1"). Un multimetro da 3½ cifre ha una risoluzione del display fino a 1.999 parole. Un multimetro a 4½ cifre ha una risoluzione del display fino a 19.999 parole. L'uso delle "parole" è un modo più accurato per descrivere la precedenza di un multimetro rispetto ai "bit". Gli odierni multimetri a 3½ cifre possono avere risoluzioni fino a 3.200, 4,000 o 6,000 parole.
Per alcune misurazioni, un multimetro da 3,200-parole fornisce una risoluzione migliore. Ad esempio, un multimetro da 1,999-parola non misurerà 0,1 V se si devono misurare 200 V o più, mentre un multimetro da 3,200-parola il multimetro visualizzerà 0,1 V per misurazioni fino a 320 V. Questa è la stessa risoluzione del più costoso multimetro da 20,000-parole fino a quando non vengono superati 320 V.
Precisione
La precisione è l'errore massimo consentito in determinate condizioni operative. In altre parole, la precisione indica quanto il valore misurato visualizzato da un multimetro digitale è vicino al valore effettivo del segnale misurato.
La precisione di un multimetro digitale è solitamente espressa come percentuale della lettura. Una precisione dell'1% della lettura significa che se la lettura visualizzata è 100 V, il valore effettivo della tensione può essere qualsiasi valore compreso tra 99 V e 101 V.
Le specifiche tecniche possono includere anche un intervallo di bit aggiunto al parametro di precisione di base. Questo intervallo rappresenta il numero di parole di cui può cambiare la cifra più a destra del valore visualizzato. Pertanto, la precisione nell'esempio precedente può essere espressa come "± (1 % + 2)". Pertanto, se il display indica 100 V, la tensione effettiva sarà compresa tra 98,8 V e 101,2 V.
I parametri di un multimetro analogico sono determinati dall'errore di fondo scala, non dalla percentuale della lettura visualizzata. La precisione tipica di un multimetro analogico è ±2% o ±3% del fondo scala. A 1/10 fondo scala, la precisione diventa del 20% o del 30% della lettura. La precisione di base tipica dei multimetri digitali si basa su ±(0,7%+1) e ±(0,1%+1) della lettura o migliore.
