Suggerimenti per la precisione del multimetro
La precisione di un multimetro digitale è una combinazione di errori sistematici e casuali nei risultati della misurazione. Indica il grado di concordanza tra il valore misurato e il valore reale e riflette anche l'entità dell'errore di misurazione. In generale, maggiore è la precisione, minore è l'errore di misura e viceversa.
Ci sono tre modi per esprimere la precisione, che sono i seguenti:
Precisione=±(a percentuale RDG più b percentuale FS) (2.2.1)
Precisione=± (una percentuale RDG più n parole) (2.2.2)
Accuratezza=± (a percentuale RDG più b percentuale FS più n parole) (2.2.3)
Nella formula (2.2.1), RDG è il valore di lettura (ovvero il valore visualizzato), FS rappresenta il valore di fondo scala e l'elemento precedente tra parentesi rappresenta il convertitore A/D e il convertitore funzionale (come partitore di tensione, shunt, convertitore di vero valore efficace), quest'ultimo è l'errore dovuto alla digitalizzazione.
Nella formula (2.2.2), n è la quantità di variazione riflessa nell'ultima cifra dell'errore di quantizzazione. Se l'errore di n parole viene convertito in una percentuale del fondo scala, diventa la formula (2.2.1). La formula (2.2.3) è piuttosto particolare. Alcuni produttori usano questa espressione e uno degli ultimi due elementi rappresenta l'errore introdotto da altri ambienti o funzioni.
I multimetri digitali sono molto più precisi dei multimetri analogici analogici. Prendendo come esempio l'indice di precisione dell'intervallo di base per la misurazione della tensione CC, 3 cifre e mezzo possono raggiungere ±0,5 percento e 4 cifre e mezzo possono raggiungere 0,03 percento.
