Погрешности средств измерений

Погрешность средств измерений или инструментальная погрешность имеет определяющее значение для наиболее распространенных технических измерений.

Наиболее существенные составляющие погрешности измерений обусловлены как свойствами самих используемых СИ, так и их взаимодействием с контролируемым объектом.

Инструментальные погрешности классифицируются по следующим признакам:

1) по характеру проявления при повторных измерениях одного и того же значения физической величины;

2) в зависимости от условий применения измерительных устройств;

3) в зависимости от поведения измеряемой величины во времени;

4) по форме представления погрешности;

5) по зависимости от значения измеряемой величины.

1. По характеру проявления при повторных измерениях одного и того же значения физической величины погрешности подразделяются на систематическую и случайную составляющие.

Эти понятия в основном тождественны понятиям систематической и случайной погрешностей измерений. Особенность состоит в том, что всякое измерительное средство предназначено для внесения определенности в исследуемый процесс, а наличие случайной составляющей погрешности приводит к неоднозначности. Поэтому минимизация случайной погрешности должна решаться на этапе проектирования и конструирования средств измерений, после чего достаточно малая систематическая погрешность обеспечивается путем градуировки измерительного средства.

2. В зависимости от условий применения средств измерений различают основную и дополнительную погрешность.

Нормальные условия – условия применения, при которых влия­ющие величины находятся в пределах нормальной области значений, которые указываются в стандартах или технических условиях на средства измерений.

Основная погрешность – погрешность средств измерений при использовании в нормальных условиях.

Рабочие условия характеризуются более сильным воздействием влияющих факторов, чем нормальные условия. Область рабочих условий включает и область нормальных условий.

Дополнительная погрешность – погрешность при выходе одной или нескольких влияющих величин за пределы нормальной области значений. Дополнительная погрешность представляет часть погрешности, которая добавляется к основной погрешности в случаях применения средств измерений в рабочих условиях. Если основная погрешность измерительных устройств определена для рабочей области, то понятие дополнительной погрешности теряет смысл.

3. В зависимости от поведения измеряемой величины во времени различают статическую и динамическую погрешности измерительных устройств.

4. По форме представления различают абсолютную, относительную и приведенную погрешность измерительных устройств.

Для измерительных приборов и преобразователей определение этих погрешностей отличается.

Для определения погрешности вводится понятие действительного значения измеряемой величины (Xд), которое определяется с помощью образцового прибора или воспроизводится мерой и настолько близко к истинному значению величины, что может быть использовано вместо него.

Форма представления погрешности измерительных приборов. У измерительных приборов имеется шкала, отградуированная в единицах входной величины, поэтому результат измерения представляется в единицах входной величины. Это обусловливает простоту определения погрешности измерительных приборов.

Абсолютная погрешность измерительного прибора (D) – разность показаний прибора (Xп) и действительного значения измеряемой величины (Xд),

D = XпXд . (2.20)

Относительная погрешность измерительного прибора (d) – отношение абсолютной погрешности измерительного прибора к действительному значению измеряемой величины. Относительную погрешность обычно выражают в процентах,

. (2.21)

Поскольку абсолютная погрешность существенно меньше действительного значения измеряемой величины или величины показаний прибора (D << Xд или D << Xп), то в выражении (2.21) вместо значения Хд может быть использовано значение Xп.

Приведенная погрешность измерительного прибора (g) – отношение абсолютной погрешности измерительного прибора к нормирующему значению XN. Приведенную погрешность также выражают в процентах,

. (2.22)

В качестве нормирующего значения используется верхний предел измерения, диапазон измерения или, для двухсторонних шкал, арифметическая сумма верхнего и нижнего пределов измерения,

. (2.23)