Погрешности средств измерений
Погрешность средств измерений или инструментальная погрешность имеет определяющее значение для наиболее распространенных технических измерений.
Наиболее существенные составляющие погрешности измерений обусловлены как свойствами самих используемых СИ, так и их взаимодействием с контролируемым объектом.
Инструментальные погрешности классифицируются по следующим признакам:
1) по характеру проявления при повторных измерениях одного и того же значения физической величины;
2) в зависимости от условий применения измерительных устройств;
3) в зависимости от поведения измеряемой величины во времени;
4) по форме представления погрешности;
5) по зависимости от значения измеряемой величины.
1. По характеру проявления при повторных измерениях одного и того же значения физической величины погрешности подразделяются на систематическую и случайную составляющие.
Эти понятия в основном тождественны понятиям систематической и случайной погрешностей измерений. Особенность состоит в том, что всякое измерительное средство предназначено для внесения определенности в исследуемый процесс, а наличие случайной составляющей погрешности приводит к неоднозначности. Поэтому минимизация случайной погрешности должна решаться на этапе проектирования и конструирования средств измерений, после чего достаточно малая систематическая погрешность обеспечивается путем градуировки измерительного средства.
2. В зависимости от условий применения средств измерений различают основную и дополнительную погрешность.
Нормальные условия – условия применения, при которых влияющие величины находятся в пределах нормальной области значений, которые указываются в стандартах или технических условиях на средства измерений.
Основная погрешность – погрешность средств измерений при использовании в нормальных условиях.
Рабочие условия характеризуются более сильным воздействием влияющих факторов, чем нормальные условия. Область рабочих условий включает и область нормальных условий.
Дополнительная погрешность – погрешность при выходе одной или нескольких влияющих величин за пределы нормальной области значений. Дополнительная погрешность представляет часть погрешности, которая добавляется к основной погрешности в случаях применения средств измерений в рабочих условиях. Если основная погрешность измерительных устройств определена для рабочей области, то понятие дополнительной погрешности теряет смысл.
3. В зависимости от поведения измеряемой величины во времени различают статическую и динамическую погрешности измерительных устройств.
4. По форме представления различают абсолютную, относительную и приведенную погрешность измерительных устройств.
Для измерительных приборов и преобразователей определение этих погрешностей отличается.
Для определения погрешности вводится понятие действительного значения измеряемой величины (Xд), которое определяется с помощью образцового прибора или воспроизводится мерой и настолько близко к истинному значению величины, что может быть использовано вместо него.
Форма представления погрешности измерительных приборов. У измерительных приборов имеется шкала, отградуированная в единицах входной величины, поэтому результат измерения представляется в единицах входной величины. Это обусловливает простоту определения погрешности измерительных приборов.
Абсолютная погрешность измерительного прибора (D) – разность показаний прибора (Xп) и действительного значения измеряемой величины (Xд),
D = Xп – Xд . (2.20)
Относительная погрешность измерительного прибора (d) – отношение абсолютной погрешности измерительного прибора к действительному значению измеряемой величины. Относительную погрешность обычно выражают в процентах,
. (2.21)
Поскольку абсолютная погрешность существенно меньше действительного значения измеряемой величины или величины показаний прибора (D << Xд или D << Xп), то в выражении (2.21) вместо значения Хд может быть использовано значение Xп.
Приведенная погрешность измерительного прибора (g) – отношение абсолютной погрешности измерительного прибора к нормирующему значению XN. Приведенную погрешность также выражают в процентах,
. (2.22)
В качестве нормирующего значения используется верхний предел измерения, диапазон измерения или, для двухсторонних шкал, арифметическая сумма верхнего и нижнего пределов измерения,
. (2.23)