Энтропия и информация.

Рассмотрим некоторую систему X, над которой производится измерение, и оценим информацию, получаемую в результате того, что состояние системы X становится полностью известным (погрешность измерений равна нулю). До проведения измерений априорная энтропия системы была Н(Х), после измерений энтропия стала равной нулю, если в результате измерения мы нашли истинное значение величины. Обозначим Ix информацию, получаемую в результате измерений. Она равна уменьшению энтропии IХ = H(X) – H(X/xи) = 0 или IX = H(X), т. е. количество информации, приобретаемое при полном выяснении состояния некоторой физической системы, равно энтропии этой системы.

С учетом формулы (1.24)

(1.26)

где рi= р(Х Þ xi). Формула (1.26) означает, что информация Ix есть осредненное по всем состояниям системы значение логарифма вероятности состояния с обратным знаком.

Действительно, для получения Ix каждое значение log pi,- (логарифм вероятности i-го значения) со знаком минус множится на вероятность этого состояния и все такие произведения складываются. Естественно каждое отдельное слагаемое - log рi следует рассматривать как частную информацию, получаемую от отдельного измерения, состоящего в том, что система X находится в состоянии Хi. Обозначим эту информацию Ixi.

Ixi = - log pi (1.27)

Тогда информация Ix представится как средняя (или полная) информация, получаемая от всех возможных отдельных измерений с учетом их вероятностей.

Так как все числа рi не больше единицы, то, как частная информация Ixi, так и полная Ix не могут быть отрицательными.

Если все возможные состояния системы одинаково вероятны (p1 = Р2= … =рп=1/п), то частная информация от каждого отдельного измерения Ixi = - log p = log n равна средней (полной) информации

(1.28)

 

6.3. Применение основных положений теории информации для характеристики процесса измерения

 

Точность измерений обычно характеризуется числовым значением полученных при измерении или априорно известных погрешностей измерений.

Пусть в результате однократного измерения значения измеряемой величины X результат измерения равен хи. Если известно, но, что средство измерения имеет случайную абсолютную погрешность в пределах ± D, то не следует утверждать, что действительное значение измеряемой величины равно хи. Можно лишь утверждать, что это значение лежит в полосе xи ± D. Незнание истинного значения измеряемой величины сохраняется после получения результата измерения хи, но теперь оно характеризуется не исходной энтропией Н(Х), а лишь энтропией разброса действительного значения X величины относительно полученного результата xи. Эта условная энтропия Н(Х/хи) определяется погрешностью данного средства измерения.

В теории информации факт проведения измерений в диапазоне от Хн до Хв означает, что при использовании данного средства измерения может быть получен результат измерений xи только в пределах от Хн до Хв. Другими словами, вероятность получения значений хи, меньших Хн и больших Хв, равна нулю. Вероятность же получения результата хи в пределах от Хн до Хв равна единице.

Если предположить, что плотность распределения различных значений измеряемой величины вдоль всей шкалы средства измерения одинакова, то с точки зрения теории информации наше знание о значении измеряемой величины до измерения может быть представлено графиком

 
 

распределения плотности f1(x) вдоль шкалы значений (рис. 16).

 

Рис. 16. Плотность распределения данного средства измерения

 

Поскольку вероятность получения результата измерений xи в пределах от Хн до Хв равна единице, то площадь под кривой f1 (x) должна быть равна единице. При равномерном распределении плотности вероятности

После проведения измерения из-за наличия погрешности средства измерения (± D) действительное значение измеряемой величины X лежит в пределах от Хи - D до Хи + D, т. е. в пределах участка 2D.

С информационной точки зрения интерпретация результата измерения состоит в том, чтобы область неопределенности простиралась от Хн до Xв и характеризовалась сравнительно небольшой плотностью распределения f1(x). После измерения неопределенность уменьшилась до величины 2D, а плотность распределения увеличилась до величины f2(x) с учетом того, что D << (Xв –Xн), что и отражено на рис. 16.

Получение какой-либо информации об интересующей нас величине заключается в конечном счете в уменьшении неопределенности ее значения.

Определим количество информации в общем случае как

Ix=H(Х)-Н(Х/хи), (1.29)

где Н(Х) - априорная энтропия; Н(Х/хи) - условная энтропия.

В нашем примере с равномерным законом распределения

Полученное количество информации

(1.30)

Данная операция, которая обычно используется при определении относительной погрешности измерения, характеризует один из основных приемов анализа информационных свойств измерений.

 

Глава 7. Организационно-правовые основы метрологической деятельности