求助,关于电流指针表计误差的计算问题

比如,校验电流表,其最大量程是100A,额定量程是80A,输入20.4A,其指针显示是20A,那它的误差是怎么计算?

一种是:(20.4-20)/20=2%;一种是:(20.4-20)/100=0.4%;还有种可能性不大:(20.4-20)/80=0.5%

我认为是第一种,但是我同事认为是第二种,请各位来探讨探讨那种计算方法正确

绝对误差=实际值-测量值

相对误差=(实际值-测量值)/实际值*100%
相对误差反映了测量的准确度。

引用误差=(实际值-测量值)/量程*100%
引用误差用来表达仪表的准确度,凡指针式仪表给出的准确度等级都是指引用误差

例如某电流表给出的准确度等级为0.5级,即它的引用误差为0.5%,它的物理意义是指在它的量程范围内的任何点,它测量的绝对误差不超过其量程的0.5%
因此,当被测量越接近其满量程,相对误差越小,测量准确度越高,反之测量准确度就越低。

这也就是我们平时在使用万用表时,当被测量较小时,要换档的原因。

一般,为了能达到合理的测量准确度,建议被测量应在量程的80%以上。

衡量测量的准确度时用“相对误差”

衡量仪表的准确度时用“引用误差”
温馨提示:答案为网友推荐,仅供参考
第1个回答  2010-07-29
20-20.4=-0.4 这是误差 (20-20.4/20.4)*100%=-1.96% 这是相对偏差
还有,该电流表的最大误差除以量程=a%,a取大于它的最小以下几个数 0.5,1.0,1.5,2.0,2.5,则该电表就是几级,通常标在点表上,注意看一下,级数越小说明电表越精密。例如结果等于1.3%,则a取大于它的最小以上列出的几个数1.5,该电表就是1.5级。通常0.5,1.0级电表比较精确,常用来校正其他电表。