Избыточность.
Энтропия представляет собой среднее количество информации (в битах), приходящееся на один знак, отсюда: если Н(а) снижается, то падает среднее количество информации на одно элементарное сообщение аi. Это рассматривают как снижение информационной емкости сообщений и появление избыточности. В связи с этим появляется возможность передачи сообщений в сокращенном виде без потерь информации .
Например, при передаче телеграмм мы исключаем из текста союзы, предлоги, знаки препинания, ибо они легко восстанавливаются при чтение переданного текста.
Избыточность:
где Нi (а) – реальная энтропия
Н0 (а) – энтропия в предложений, что все знаки его (аi) равновероятны.
r – Коэффициент сжатия.
Искажение избыточности приводит к сокращению времени передачи одной и той же информации.
Сжатие сообщений можно осуществить посредством соответствующего «оптимального « кодирования.
Наиболее известны коды Шеннона – Фено и Хаффмена. Смысл такого кодирования в том, что более часто встречающимся знакам (вероятности появления их велики) присваиваются короткие кодовые комбинации, редко встречающимся – длинные. Этим достигаются два преимущества снижается число используемых бита один знак в среднем, и становятся более помехозащищенными ценные знаки (с малой вероятностью появления), так как более длинную кодовую комбинацию поразить труднее (чем короткую).