Ентропія та інформація

 

Кількість інформації будемо виміряти зменшенням ентропії тієї системи, для уточнення стану якої ці відомості призначені. Кількість інформації, здобутої при повному з’ясуванні стану деякої системи, дорівнює ентропії цієї системи. Тобто

 

.

Часткова інформація, отримана від окремого повідомлення, за умови, що система Х знаходиться в стані ,знаходиться за формулою

 

.

 

Якщо всі можливі стани системи однаково рівноймовірні , то

 

.

 

Розглянемо систему з двома станами:

 

xi x1 x2
pi p1 p2

 

Для вимірювання інформації в двійкових одиницях можна умовно характеризувати її кількістю відповідей типу «так» або «ні», за допомогою яких можна здобувати таку саму інформацію. Максимальна інформація досягається за умови p1=p2=1/2 і Ix=1. Якщо інформація від будь-якого повідомлення дорівнює n двійковим одиницям, то вона рівносильна інформації, яка надається n відповідями «так» або «ні» на питання, поставлені таким чином, що «так» або «ні» однакової ймовірності.

 

Приклад. Дехто задумав ціле число від 1 до 8. Яку мінімальну кількість запитань типу «так» або «ні» треба поставити, щоб його вгадати?

Розв’язання. Знайдемо інформацію, яка знаходиться у повідомленні, яке число задумане. Всі значення Х від 1 до 8 рівноймовірні (р12=…=р8=1/8), тому. Мінімальну кількість питань, які треба поставити для знаходження задуманого числа, не більше ніж 3.

 

На практиці виникає потреба в спостереженні не над самою системою Х (вона є недосяжною для спостереження), а над іншою системою У, яка пов’язана з нею. Відмінність між системами Х та У може бути двох видів:

1 Відмінність за рахунок того, що деякі стани системи Х не знаходять відображення в системі У.

2 Відмінність за рахунок помилок, які виникають при вимірюванні параметрів системи Х та при передачі повідомлень.

Кількість інформації про систему Х, яке дає спостереження над системою У, обчислимо за формулою

 

.

 

Це є повна ( або середня) інформація про систему Х, яка знаходиться в системі У. Інформацію будемо називати повною взаємною інформацією, яка знаходиться у системах Х та У. Якщо Х та У незалежні, то і . У випадку коли стан системи Х повністю відповідає стану системи У і навпаки, то і

 

.

 

Знайдемо повну взаємну інформацію через ентропії об’єднаної системи та її складових:

.

 

Після певних перетворень, враховуючи вищеназване, маємо

 

(1)

 

Приклад 1. Маємо дві системи Х та У об’єднані в одну (Х,У). Ймовірність стану об’єднаної системи задано таблицею:

 

  x1 x2 x3
y1 0,1 0,2
y2 0,3
y3 0,2 0,2

 

Знайти повні умовні ентропії і та повну взаємну інформацію .

Розв’язання.

Знайдемо ймовірності подій хi та уj: р1=0,1; р2=0,7; р3=0,2; r1=0,3; r2=0,3; r3=0,4

та отримаємо таблиці умовних ймовірностей Р(yj/xi) :

 

  x1 x2 x3
y1 0,2/0,7
y2 0,3/0,7
y3 0,2/0,7

 

та Р(xi/yj)

 

  x1 x2 x3
y1 0,1/0,3 0,2/0,3
y2
y3 0,2/0,4 0,2/0,4

 

 

;

 

 

,

 

,

,

 

Приклад 2.Ймовірність отриманнякредиту в банкудорівнює 20%. Припустимо, що завчасно робиться прогноз з отримання кредиту. Прогноз отримання кредиту буває помилковим приблизно в половині всіх випадків, а прогноз неотримання кредиту є помилковим в одному випадку з десяти. Яка кількість інформації в бітах знаходиться в повідомленні про отримання кредиту ?

Розв’язання. Запишемо такі події: А1-отримання кредиту; А2- неотримання кредиту; В1- прогноз видачі кредиту; В2 - прогноз невидачі кредиту:

Р(А1)=0,2 Р(А2)=0,8 Р(А11)=0,5 Р(А12)=1/10.

Будемо використовувати формулу повної ймовірності:

.

Маємо:


Знаходимо рішення системи Р(В1)=1/4 Р(В2)=3/4.

 

Для знаходження кількості інформації застосовуємо формулу (1)

Враховуючи, що Р(АВ)=Р(В)Р(А/В), маємо:

Р(А1 В 1)=Р(В1 )Р(А 11 )=1/8 ; Р(А1 В2)=3/40;

Р(А2 В1)=1/8; Р(А2 В2)=27/40;

 

IYX =0,12 бітів.

Іноді необхідно оцінити часткову інформацію про систему Х, яка знаходиться в окремому повідомленні, коли система У знаходиться в конкретному стані уj. Позначимо цю часткову інформацію . Враховуючи, що

, а також (1)

маємо

 

Для знаходження часткової інформації про подію хi, яка знаходиться в події уj, необхідно застосовувати формулу

 

Таким чином, часткова інформація про подію, яка отримується при повідомленні про іншу подію, дорівнює логарифму відношення ймовірності першої події після повідомлення до його ймовірності до повідомлення. Ця інформація може бути як додатною так і від’ємною.

 

Приклад. В урні маємо 3 білих та 4 чорних кулі. Витягли 4 кулі: 3 чорні та 1 білу. Знайти кількість інформації в бітах, яка знаходиться в спостережної події В відносно події А, наступна куля, яку будемо витягати, буде чорною.

Розв’язання