Introduzione alla precisione del multimetro digitale
La precisione si riferisce all'errore massimo consentito in un ambiente di utilizzo specifico. In altre parole, la precisione è usata per indicare
La vicinanza tra il valore misurato del multimetro digitale e il valore effettivo del segnale misurato.
Per i DMM, l'accuratezza è generalmente espressa come percentuale della lettura. Ad esempio, il significato dell'accuratezza di lettura dell'1% è: quando il display del multimetro digitale è 100.0V, la tensione effettiva può essere compresa tra 99,0 V e 101,0 V .
Potrebbero esserci valori specifici aggiunti alla precisione di base nella specifica. Il suo significato è il numero di parole da aggiungere per trasformare l'estremità più a destra del display. Nell'esempio precedente, la precisione potrebbe essere indicata come ±(1 percento più 2). Pertanto, se il GMM legge 100,0 V, la tensione effettiva sarà compresa tra 98,8 V e 101,2 V.
La precisione di un misuratore analogico viene calcolata in base all'errore di fondo scala, non alla lettura visualizzata. La precisione tipica per i misuratori analogici è ±2% o ±3% del fondo scala. La precisione di base tipica di un multimetro digitale è compresa tra ±(0,7 percento più 1) e ±(0,1 percento più 1) della lettura, o anche superiore.