Il metodo per determinare il livello di precisione del multimetro

Apr 23, 2022

Lasciate un messaggio

il metodo per determinare il livello di precisione del multimetro


Se lo strumento misura più parametri, come viene determinato il livello di precisione dello strumento?


Come classe di precisione viene utilizzato il valore assoluto dell'errore percentuale relativo massimo del misuratore, dove:


La precisione dello strumento standard principale è: {{0}}.005, 0.02, 0.05.


La precisione dello strumento standard secondario è: {{0}}.1, 0.2, 0.35, 0,5.


La precisione degli strumenti industriali generali è: {{0}}.1, 0.2, 0.5, 1.0, 1.5, 2.5, 5.0


Errore percentuale relativo = (valore misurato del parametro misurato - valore standard del parametro misurato) ÷ (il limite superiore della scala - il limite inferiore della scala) × 100 percento .


Il grado di precisione è diviso per l'errore consentito come percentuale del valore della scala del quadrante. Maggiore è l'intervallo, maggiore è l'errore consentito del valore assoluto del valore di pressione misurato per lo stesso livello di precisione. La precisione comunemente usata è 2,5 e 1,5. Se è 1.0 e 0.5, appartiene all'alta precisione. Ora alcuni numeri hanno raggiunto 0.25.


Il metodo di rappresentazione dell'errore si divide in: errore di riferimento, errore relativo, errore assoluto.


Errore di riferimento=(errore assoluto massimo/intervallo misuratore) × 100 percento


Esempio: 2% FS


Errore relativo=(errore assoluto massimo/valore di misurazione dello strumento) × 100 percento


Ad esempio: Inferiore o uguale a 2 percento , l'errore assoluto si riferisce a quanto l'errore si discosta dal valore vero.


Ad esempio: minore o uguale a ±0.01m3/s


In normali condizioni d'uso, l'accuratezza dei risultati di misurazione dello strumento è chiamata precisione dello strumento. Nella misura industriale, per esprimere la qualità dello strumento, il livello di accuratezza viene solitamente utilizzato per indicare l'accuratezza dello strumento. Il livello di precisione è l'errore di riferimento massimo meno i segni positivo, negativo e percentuale.


Il grado di precisione è uno degli indicatori importanti per misurare la qualità dello strumento. I gradi di strumenti industriali nel mio paese sono divisi in sette gradi: {{0}}.1, 0.2, 0.5, 1.0, 1.5 , 2.5 e 5.0 e sono contrassegnati sulla scala o sulla targhetta dello strumento. L'accuratezza dello strumento è comunemente chiamata precisione e il livello di accuratezza è abitualmente chiamato livello di precisione.


Precisione del misuratore=(errore assoluto massimo/gamma del misuratore) * 100 percento .


Prendendo il valore assoluto della formula di calcolo sopra e rimuovendo la percentuale è il livello di precisione che vediamo.


La precisione dello strumento è suddivisa in diversi gradi in base alla dimensione dell'errore consentita stabilita dallo stato. L'errore consentito di un certo tipo di strumento si riferisce all'errore percentuale massimo consentito in condizioni normali specificate.


I livelli di accuratezza degli strumenti di rilevamento e controllo dei processi nel mio paese sono {{0}}.005, 0.02, {{ 17}}.1, 0.35, 0.5, 1.0, 1.5, 2.5 e 4. I contatori industriali generali sono da 0,5 a 4 gradi. Minore è il numero di precisione, maggiore è la precisione del misuratore.

4

Invia la tua richiesta