ЛЕКЦИЯ 14

Связь между информационными и точностными характеристиками.

 

Информационные характеристики применимы не только к системам передачи информации, но и к измерительным приборам и системам. Погрешность есть D помеха, вносящая дезинформацию. При аддитивной независимой (помехе) погрешности D справедливо соотношение, аналогичное (44):

(49)

где I(U, W) – среднее количество информации получаемое при одном измерении величины u; Hдиф(W) и Hдиф(D) – дифференциальные энтропии воспроизводимой величины и погрешности.

Если к тому же измеряемая величина “u” и погрешность D имеют нормальные распределения, то количество информации можно выразить через дисперсии этих величин по аналогии с (45):

(50)

Рассматривая измеряемую величину, как случайную функцию времени, можем определить среднюю скорость получения информации при измерении по формуле (47). Если при этом “u” и D - взаимно независимые величины с нормальными распределениями, то

(51)

Если распределения “u” и D отличны от нормальных, то получить столь простые формулы не удастся. Однако для случая, когда среднеквадратическое отклонение погрешности s(D) много меньше среднеквадратического отклонения s(u) измеряемой величины или диапазона измерений, т.е. разности (uкон-uнач), можно получить достаточно удовлетворительные приближенные соотношения. При s(u)>>s(D) ошибка в подсчете количества информации будет невелика, если в формуле (50) опустить слагаемое, равное 1, т.е. пользоваться выражением

Но это выражение можно также получить, если в формуле (49) заменить дифференциальную энтропию измеряемой величины Hдиф(W). Можно полагать, что при сформулированном условии относительной малости погрешности такая замена энтропий в формуле (49) справедлива не только для случая нормальных распределений “г” и D. Итак, при относительно малых погрешностях

(52)

Предположим, что измеряемая величина “u” имеет равномерный закон распределения в диапазоне от начального uнач до конечного значения uкон. Дифференциальная энтропия такой величины

(53)

Если погрешность имеет нормальное распределение, то

(54)

Тогда для равномерного распределения u и нормального распределения D:

(55)

Теперь рассмотрим случайный процесс u(t) с равномерным распределением “u” и равномерным спектром, ограниченным частотой Fmax. Если погрешность относительно мала, а закон распределения ее близок к нормальному, то скорость получения информации при измерении можно приближенно оценить по формуле

(56)

Рассмотрим случай, когда погрешность D распределена равномерно в диапазоне от -Dmax до +Dmax, т.е.

(57)

При этом

(58)

Существуют понятие энтропийной погрешности. Смысл ее состоит в том, что реальная погрешность заменяется некоторой условной погрешностью с равномерным распределением, причем максимальное значение условной погрешности выбирают так, чтобы величина создаваемой ею дезинформации была такой же, как и при данной реальной погрешности. Это максимальное значение и называется энтропийной погрешностью.

Например, при реальной погрешности с нормальным законом распределения нужно выбрать так, чтобы были равны между собой величины Hдиф(D), рассчитанные по формулам (54) и (58). Величину выбирают из условия

Отсюда

Следовательно, при нормальном распределении реальны погрешности энтропийная погрешность приблизительно вдвое больше среднеквадратического отклонения.

Применяя информационные критерии к измерительным преобразователям, следует помнить, что у них выходная величина w не должна равняться входной “u”: поэтому нужно вместо w брать величину, пересчитанную от выхода преобразователя к его входу, и определять погрешность в единицах входной величины.