Пример 5
Тогда
Н=log2L, бит Н=I’
Совпадение оценок количества информации по Шеннону и по Хартли свидетельствует о полном использовании информационной емкости. В случае неравных вероятностей количество информации по Шеннону меньше информационной емкости системы.
Энтропия для двух неравновероятных состояний одного элемента (h=2) равна:
Н=-(р1log2p1+p2log2p2)
Оно меньше информационной емкости двоичной ячейки составляющей бит. Эта видно из следующих расчетов.
А. Равновероятные состояния:
р1=р2=0,5; р1+р2=1
Н=-10,5log20,5+0,5log20,5)=0,5+0,5=1 бит
Б. Не равновероятные состояния:
р1=0,9 р2=0,1 р1+р2=1
Н=-10,9log20,9)+0,1log20,1=-[0,9]-0,1520)+0,1(-3,32/9)=0,46/бит
В. Детерминированные состояния:
р1=1 р2=0 р1+р2=1
Н=-(1log21+0log20)=0 (бит)
Изменение энтропии Н показано на рисунке.
Y
0,8
0,6
0,4
0,2
0,2 0,4 0,6 0,8 10 p
Изменение энтропии зависимости р