СВОЙСТВА ЭНТРОПИИ

ИНФОРМАЦИОННАЯ ЭНТРОПИЯ И НЕОПРЕДЕЛЕННОСТЬ ТЕХНИЧЕСКОГО СОСТОЯНИЯ ОБЪЕКТА

ЛЕКЦИЯ №7

«ИНФОРМАЦИОННАЯ ЭНТРОПИЯ И НЕОПРЕДЕЛЕННОСТЬ ТЕХНИЧЕСКОГО СОСТОЯНИЯ ОБЪЕКТА»

ВРЕМЯ– 2 часа

ЦЕЛИ ЗАНЯТИЯ:

Познакомиться с определением энтропии. Рассмотреть свойства энтропии и возможности ее использования для определения технического состояния диагностирования объектов, определить энтропию объекта с непрерывным пространством состояний.

СОДЕРЖАНИЕ ЗАНЯТИЯ:

ВВОДНАЯ ЧАСТЬ– 5 мин.

УЧЕБНЫЕ ВОПРОСЫ:

1. ИНФОРМАЦИОННАЯ ЭНТРОПИЯ И НЕОПРЕДЕЛЕННОСТЬ ТЕХНИЧЕСКОГО СОСТОЯНИЯ ОБЪЕКТА– 40 мин.

2. СВОЙСТВА ЭНТРОПИИ –20 мин.

3. ЭНТРОПИЯ ОБЪЕКТА С НЕПРЕРЫВНЫМ ПРОСТРАНСТВОМ СОСТОЯНИЙ– 20 мин.

ЗАКЛЮЧЕНИЕ– 5 мин.

Информационная энтропия — это мера неопределённости или непредсказуемости информации, неопределённость появления какого-либо состояния объекта диагностики. Если потеря информации отсутствует, то информационная энтропия численно равна количеству информации на символ передаваемого сообщения.Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Реальный объект может находиться в одном из n возможных состояний (e0, e1, e2, … ei, … en) из множества состояний Е. Разные состояния появляются с разной вероятностью Р(ei). Возникает вопрос, в каком из состояний находится объект в настоящий момент? Т.е. существует неопределенность конкретного состояния объекта в конкретный момент времени.

Разная вероятность состояния объекта означает, что в одних состояниях объект может находиться чаще, чем в других. Например, если в работоспособном состоянии e0 объект может находиться чаще, чем в неработоспособном состоянии ei, то неопределенность состояний объекта уменьшается. Если предположить, что вероятность нахождения объекта в неработоспособном состоянии Р(ei) стремится к 0, то в этом случае неопределенность состояния объекта также стремится к 0.

Если одно из возможных состояний объектаe0 (работоспособное состояние), обязательно реализуется с некоторой вероятностью Р(e0), а два состояния (работоспособное и неработоспособное) одновременно невозможны, то имеется полная группа событий с вероятностью реализации, равной 1:

(ei) =1.

Для обеспечения возможности измерения информации она должна соответствовать определенным требованиям:

1. Мера информации о состоянии объекта должна быть непрерывной - изменение значения величины вероятности состояния объекта на малую величину должно вызывать малое изменение неопределенности о его состоянии;

2. В случае, когда все технические состояния объекта равновероятны, увеличение количества вариантов возможных состояний должно всегда увеличивать значение неопределенности информации;

3. Значение энтропии конечного результата оценки состояния объекта должно являться суммой энтропий промежуточных результатов оценок его состояния.

В соответствии с данными требованиями функция энтропии Н(Е) должна удовлетворять условиям:

Н(Е) определена и непрерывна для всех состояний (e0, e1, e2, … ei, … en) Е, где i =1, … n и (ei) =1.

Эта функция зависит только от распределения вероятностей состояний.

Информационная двоичная энтропия для независимых случайных событий ei с n возможными состояниями рассчитывается по формуле:

H(E) = - (ei) log2 P(ei).

Таким образом,энтропия (неопределенность) технического состояния объекта H(E) является суммой с противоположным знаком всех произведений вероятностей появления его состояний события P(ei), умноженных на двоичные логарифмы вероятностей этих состояний.

Знак «минус» в формуле появился из-за того, что вероятность P(ei) всегда меньше единицы и логарифм от неё отрицателен. Наличие знака «минус» не означает, что информация отрицательна.

Величина H(E)также называется средней энтропией сообщения о состоянии объекта.

Величина log21/P(ei) называется частной энтропией, характеризующей только i-e состояние объекта.

Нахождение логарифма b по основанию a - это нахождение степени, в которую нужно возвести a, чтобы получить b.

Логарифм по основанию 2 называется двоичным: log28 = 3 → 23=8; log210 =3,32 → 23,32 =10.

Логарифм по основанию 10 называется десятичным: log10100 =2 → 102=100.

Для простоты вычислений выражение для определения энтропии можно преобразовать к виду:

H(E) = - (ei) log2 P(ei) = - (ei) log10 P(ei)/ log10 2 =- (ei) log10 P(ei)/0,301.

Рассмотрим объект, имеющий два возможных состояния – работоспособное e0 и отказe1.. Предположим, что эти состояния равновероятны, т.е. можно записать:

P(e0) = P(e1) =0,5.

Энтропия состояния такого объекта определится как:

H(2) = -(ei)·log10P(ei)/0,301= -0,5log100,5/0,301-0,5log100,5/0,301= log100,5/0,301 =0,301/0,301 = 1.

Мерой двоичной энтропии состояния объекта является 1 бит.Бит(bit, от binary - двоичный digit – знак), двоичная единица, в теории информации единица количества информации. Получение 1 бита информации исключает из рассмотрения половину равнозначных вариантов состояний объекта. 1 Бит — базовая единица измерения количества информации, равная количеству информации, содержащемуся в опыте, имеющем два равновероятных исхода. Это тождественно количеству информации в ответе на вопрос, допускающий ответы «да» либо «нет» и никакого другого (то есть такое количество информации, которое позволяет однозначно ответить на поставленный вопрос).

Рассмотрим случай, когда объект также может находиться в двух состояниях, но одно из этих состояний наиболее вероятно. Например, вероятность работоспособного состояния объекта P(e0)= 0,9999. Тогда вероятность отказа объекта составитP(ei)= 1 - 0,9999= 0,0001. Определим энтропию состояний объекта в этом случае:

H(2) = (ei)·log10P(ei)/0,301 =-0,9999log100,9999/0,301 -0,0001log100,0001/0,301=0,9999·0,000043/0,301 + 0,0001·4/0,301 = 0,00014 + 0,0013 = 0,00147.

В первом случае энтропия состояния объекта составила 1 бит, а во втором случае 0,00147 бит. Во втором случае вероятность одного из возможных состояний была на много больше вероятности другого состояния. В результате неопределенность состояния, т.е. его энтропия в этом случае практически отсутствует. Рассмотрение данных примеров позволяет сделать важный вывод - энтропия состояния объекта максимальна, если эти состояния равновероятны.

Если состояния объекта равновероятны, то выражение для определения энтропии упрощается и принимает вид:

H(n) =- (ei) log2 P(ei) = -log2 (1/n ) = log2(n ) =-log10(1/n) /0,301 = log10n/0,301.

Если n = 2, то H(2) = log102/0,301 = 1бит.

Определим энтропию состояния объекта с тремя возможными равновероятными состояниями:

H(3) = log103/0,301 = 0,477/0,301 = 1,585 бит.

Определим энтропию состояния объекта с четырьмя возможными равновероятными состояниями:

H(4) = log104/0,301 = 0,602/0,301 = 2 бит.

Определим энтропию состояния объекта с пятью возможными равновероятными состояниями:

H(10) = log1010/0,301 = 1/0,301 = 3,32 бит.

Для того, чтобы энтропия состоянии объекта изменялось всегда от 0 (отсутствие неопределенности) до 1 (наибольшая неопределенность), применяются различные единицы измерения. От количества возможных равновероятных состояний объекта n зависит единица измерения количества информации и энтропии: 1бит, 1 трит, 1 тетрит … 1 дит и т.д.:

- 1 бит – для случая двух возможных равновероятных состояний;

- 1трит – для случая трех возможных равновероятных состояний;

- 1тетрит– для случая четырех возможных равновероятных состояний;

- 1 дит – для случая десяти возможных равновероятных состояний.

Каждой единице измерения соответствует свое основание логарифма. От основания логарифма зависит числовая величина единицы измерения количества информации и энтропии:

- 1 бит: H(2) = log2(2) = log102/0301 = 1 бит;

- 1трит = 1,585 бит: H(3) = log3(3) = log10(3)/0,301 = 1 трит;

- 1тетрит = 2 бит: H(4) = log4(4) = log10(4)/0,301= 1 тетрит;

- 1 дит = 3,32 бит: H(10) = log10(10) = log10(10)/0,301 = 1 дит.

Иногда применяется единица измерения информации 1 нат. 1 нат определяется через натуральный логарифм. 1 нат = log2e≈ 1,443 бит.

Если известна энтропия состояния объекта H(n), то обратной задачей является определение возможного числа равновероятных состояний n. В этом случае используется формула Хартли:

n = 2H(n).

Например H(n) = 2. Тогда n = 2H(n) = 4. Объект может иметь 4 равновероятных состояния.

 

 

Энтропия технического состояния объекта имеет следующие основные свойства:

1. Энтропия не отрицательна:

H(E)≥ 0.

2. Если вероятность нахождения объекта в каком либо состоянии P(ei) = 1, то энтропия такого состояния равна 0:

H(E)= 0 при P(ei) = 1.

3. Энтропия объекта максимальна, когда его состояния равновероятны. Если объект может находиться в равновероятных состояниях, то:

H(n) = log2 (n) = log10(n)/0,301.