打个比方 比如 我电源输出的电流是5A 仪器测的是4.947A
6为半的高精度表测出的实输电流为4.999A 我要计算我的仪器精度达到了多少? 请解释一下 并且说明公式 电压的也是一样 是如何计算的
回答可以详细点最好 本人初学者 明天要用到计算精度
很急 可以追加分
郭老师 您好像跑题了 我就是想问下我这上面的数据怎么去计算我设备的精度
2楼的在问下 实际值乘百分百是个什么意思
精度=(测量值/实际值)*100%。
分流器测量的系统精确度会受到许多误差源的影响,其中一些如表1所示。方程式1表明了极端系统精确度情况。
其中,Sworst-case(%)为每个误差源的误差贡献度。但是,一种更为实际的系统精确度计算方法是,将无关联误差写成一个和的平方根(RSS),如方程式2所示。
输入补偿电压一般为影响某种解决方案精确度的最大因素。它的定义是“一个必须施加于输入端之间以强制静态DC输出电压为零或者其他规定电平的DC电压”。放大器的理想Vos为0V。但是,工艺差异和器件设计限制等原因,会导致Vos不为零。
所有输入参考误差均根据理想分流器电压计算得到。理想分流器电压应为负载电流和理想电阻器值的乘积。系统中,标称负载电流为5A,理想关联电阻器值为1mΩ,则器件Vos规范的误差贡献程度计算方法如方程式3所示。假设我们决定使用INA170,其最大Vos规范为1mV。
要想减小这种误差,我们有两种方法:增加Rshunt电阻,或者降低Vos (max)。增加Rshunt 电阻方法是否可行,取决于成本、电路板空间或者功耗情况。另外,我们也可以尝试找到一种具有更低Vos的替代器件。
最后,需要注意的是,负载电流与误差成反比关系。在我们的例子中,标称负载电流为5A时,计算得20%。如果系统负载电流减少,则Vos规范产生的有效误差增加。因此,设计人员应在最小负载电流下计算极端误差。
本回答被网友采纳精度=(测量值/实际值)*100%。
电工测量指示仪表在额定条件下使用时,其最大基本误差的百分数称为仪表精度等级a的百分数,即±a%=(ΔXm/Xm)×100%。
满度数值略去小数点的倒数就是分辨率。满度误差等于精度等级(如0.5%)乘以满度。举例而言,0.2级的3位半的数字电压表,满度为1999其分辨率为1/2000。
扩展资料:
准确度的选择。因仪表的准确度越高,价格越贵,维修也较困难。而且,若其他条件配合不当,再高准确度等级的仪表,也未必能得到准确的测量结果。
因此,在选用准确准确度较低的仪表可满足测量要求的情况下,就不要选用高准确度的仪表。通常0.1级和0.2级仪表作为标准表选用;0.5级和1.0级仪表作为实验室测量使用;1.5级以下的仪表一般作为工程测量选用。
量程的选择。要充分发挥仪表准确度的作用,还必须根据被测量的大小,合理选用仪表量限,如选择不当,其测量误差将会很大。一般使仪表对被测量的指示大于仪表最大量程的1/2~2/3以上,而不能超过其最大量程。
参考资料来源:百度百科-常用电工测量仪表
参考资料来源:百度百科-电流表
参考资料来源:百度百科-准确度等级
参考资料来源:百度百科-电压
本回答被网友采纳