Пример 5

Тогда

Н=log2L, бит Н=I’

Совпадение оценок количества информации по Шеннону и по Хартли свидетельствует о полном использовании информационной емкости. В случае неравных вероятностей количество информации по Шеннону меньше информационной емкости системы.

Энтропия для двух неравновероятных состояний одного элемента (h=2) равна:

Н=-(р1log2p1+p2log2p2)

Оно меньше информационной емкости двоичной ячейки составляющей бит. Эта видно из следующих расчетов.

А. Равновероятные состояния:

р12=0,5; р12=1

Н=-10,5log20,5+0,5log20,5)=0,5+0,5=1 бит

Б. Не равновероятные состояния:

р1=0,9 р2=0,1 р12=1

Н=-10,9log20,9)+0,1log20,1=-[0,9]-0,1520)+0,1(-3,32/9)=0,46/бит

В. Детерминированные состояния:

р1=1 р2=0 р12=1

Н=-(1log21+0log20)=0 (бит)

Изменение энтропии Н показано на рисунке.

Y

 

0,8

 

0,6

 

0,4

 

0,2

 

0,2 0,4 0,6 0,8 10 p

Изменение энтропии зависимости р