На самостоятельную работу
Задача 4.
Задача 3
Задача 2
Задача 1.
Приклади визначення параметрів об'єднаної імовірнісної схеми
Маємо два дискретних немарковських джерела інформації з алфавітами та з такими розподілами ймовірностей появи символів:
Не розраховуючи ентропії джерел, дати відповідь, яке з них має більшу ентропію.
Розв’язання. Оскільки розподіл ймовірностей появи символів на виході джерела з алфавітом є більш близьким до рівноймовірного, ентропія цього джерела буде більшою, ніж джерела з алфавітом .
Розрахунки підтверджують цей висновок:
Матриця ймовірностей сумісної появи символів на виходах двох немарковських джерел з алфавітами та має вигляд:
Визначити, яке з джерел має більшу ентропію та чи є джерела статистично незалежними.
Розв’язання. Для відповіді на перше запитання розрахуємо, користуючись виразами (1.13), безумовні ймовірності появи символів на
виходах першого та другого джерел:
p(x1) = 0,0336 + 0,3150 + 0,0714 = 0,42 ;
p(x2) = 0,0264 + 0,2475 + 0,0561 = 0,33 ;
p(x3) = 0,0200 + 0,1875 + 0,0425 = 0,25 ;
p(y1) = 0,0336 + 0,0264 + 0,0200 = 0,08 ;
p(y2) = 0,3150 + 0,2475 + 0,1875 = 0,75 ;
p(y3) = 0,0714 + 0,0561 + 0,0425 = 0,17 .
Тепер можемо знайти ентропії джерел за виразом (1.1):
Таким чином, джерело з алфавітом має більшу ентропію, ніж джерело з алфавітом .
Відповідь на друге запитання можна отримати різними способами. По-перше, оскільки вже відомі значення ентропії та , доцільно перевірити, чи виконується рівність (1.18). Для цього розрахуємо сумісну ентропію . Підставивши чисельні значення ймовірностей у вираз (1.11), отримаємо:
Оскільки,джерела є статистично незалежними.
Другий спосіб базується на перевірці виконання співвідношень для всіх пар символів:
p(x1) × p(y1) = 0,42×0,08 = 0,0336 ;
p(x2) × p(y1) = 0,33×0,08 = 0,0264 ;
p(x3) × p(y1) = 0,25×0,08 = 0,0200 ;
p(x1) × p(y2) = 0,42×0,75 = 0,3150 ;
p(x2) × p(y2) = 0,33×0,75 = 0,2475 ;
p(x3) × p(y2) = 0,25×0,75 = 0,1875 ;
p(x1) × p(y3) = 0,42×0,17 = 0,0714 ;
p(x2) × p(y3) = 0,33×0,17 = 0,0561 ;
p(x3) × p(y3) = 0,25×0,17 = 0,0561 .
Як і слід було очікувати, розраховані ймовірності цілком збігаються із відповідними значеннями ймовірностей сумісної появи символів, що наведені в умовах задачі.
Найбільш універсальним способом оцінки статистичної залежності джерел є обчислення повної взаємної інформації . Аналізуючи вираз (1.23), легко зрозуміти, що для джерел цієї задачі ,оскільки для усіх пар
Ще один спосіб розв’язання задачі базується на аналізі матриці умовних імовірностей. Розрахуємо, наприклад, умовні ймовірності , користуючись виразом :
Всі елементи кожного стовпця однакові і дорівнюють безумовній ймовірності появи відповідного символу . Це означає, що ймовірність появи символу на виході першого джерела не залежить від символу на виході другого джерела. Можна переконатись, що i в матриці умовних ймовірностей всі елементи кожного стовпця будуть однаковими і дорівнювати .
Маємо три дискретних немарковських джерела інформації з алфавітами , , . Матриці ймовірностей сумісної появи пар символів є такими:
Визначити, між якими джерелами статистичний зв’язок найбільший, а між якими найменший.
Розв’язання.Для відповіді на поставлене запитання треба знайти значення повної взаємної інформації для всіх пар джерел, та порівняти їх. Найпростіше в даному разі користуватись виразом
. |
Щоб обчислити безумовні ентропії кожного з джерел, знайдемо безумовні ймовірності появи символів на виході джерел за виразом (1.13):
Слід зазначити, що значення кожної з ймовірностей можна отримати двома шляхами. Так є сумою елементів відповідних рядків першої матриці, або елементів стовпців третьої матриці. Це означає, що матриці, наведені в завданні, відповідним чином узгоджені.
Розрахуємо ентропії джерел, користуючись (1.1):
H(X) = 1,157 біт ; H(Y) = 0,971 біт ; H(Z) = 1,0 біт .
Далі за виразом (1.11) знаходимо сумісні ентропії:
Нарешті отримаємо:
Рівність нулю означає, що джерела з алфавітами тастатистично незалежні. Найбільший статистичний зв’язок має місце між джерелами з алфавітамита ,оскільки має найбільше значення.
Известны энтропии двух зависимых источников Н(Х) = 5 бит; Н(Y) = 10 бит. Определить, в каких максимально возможных пределах будет изменяться условная энтропия Н(Y/X).
Решение. Уяснению соотношений между рассматриваемыми энтропиями источников информации способствует их графическое отображение.
При отсутствии взаимосвязи между источниками информации:
H(Y) |
H(X,Y) |
H(X) |
Если источники информации независимы, то Н(Y/X) = Н(Y) = 10 бит, а Н(X/Y) = H(X) = 5 бит, и, следовательно, Н(X,Y) = H(X) + H(Y) = 5 +10 = 15 бит. Т.е., когда источники независимы Н(Y/X) = Н(Y) = 10 бит и поэтому принимают максимальное значение.
По мере увеличения взаимосвязи источников Н(Y/X) и Н(X/Y) будут уменьшаться:
H(X/Y) |
H(Y) |
H(X,Y) |
H(X) |
H(Y/X) |
I(X,Y) |
При полной зависимости двух источников один из них не вносит никакой информации, т.к. при появлении xi неизбежно следует уj , т.е. p(xi, уj) равно единице при и нулю при . Поэтому в , следовательно, .
H(Y) |
H(X,Y) |
H(X) |
H(Y/X) |
I(X,Y) |
При этом , тогда . Поэтому будет изменяться от 10 бит до 5 бит при максимально возможном изменении от 5 бит до 0 бит.
Задача 1. Определите и Н(Y/X), если p(х1,y1) = 0,3; p(x1,y2) = 0,2; p(x1,y3) = 0,15; p(x3,y2) = 0,25; p(x3,y3) = 0,1.
Задача 2. Определите , , если p(х1,y1) = 0,2; p(x2,y1) = 0,4; p(x2,y2) = 0,25; p(x2,y3) = 0,15.
Задача 3
Маємо три дискретних немарковських джерела з алфавітами Ймовірності сумісної появи символів мають такі значення: p ( x1, y1, z1 ) = 0,048; p ( x1, y1, z2 ) = 0,012; p ( x1, y2, z1 ) = 0,072; p ( x1, y2, z2 ) = 0,162; p ( x2, y1, z1 ) = 0,272; p ( x2, y1, z2 ) = 0,068; p ( x2, y2, z1 ) = 0,300; p ( x2, y2, z2 ) = 0,060.
Знайти ентропії кожного з джерел, системи трьох джерел, а також повну взаємну інформацію для кожної пари джерел.