Неопределенность, количество информации и энтропия

Синтаксическая мера информации

Информация не является ни материей, ни энергией. В отличие от них, она может возникать и исчезать. Особенность информации заключается в том, что она проявляется только при взаимодействии объектов. Поэтому понятие «информация» обычно предполагает наличие двух объектов - «источника» информации и «приемника» (потребителя) информации (рис.1.2). Информация передается от источника к получателю в виде сигналов (например, электрических, световых, звуковых и т.д.), распространяющихся в определенной среде.

Рис. 1.2 Структурные компоненты обмена информацией

Сигнал - это физический процесс, несущий информацию о событии или состоянии объекта наблюдения.

Самый “популярный” носитель информации - электромагнитные волны, непосредственно воспринимаемые человеческими органами чувств как свет, звук и тепло [2]. Спектр данных волн представлен на рис.3.2.

 

Рис.3.2 Спектр электромагнитных волн

 

Информация может поступать непрерывно или дискретно, т.е. в виде последовательности отдельных сигналов (рис.3.3). Соответственно, различают непрерывную и дискретную информацию.

 

Рис.3.3 Представление непрерывного и дискретного сигналов

 

По определению А. Д. Урсула - «информация есть отраженное разнообразие». Количество информации есть количественная мера разнообразия.

 

Любое сообщение между источником и приемником информации имеет некоторую продолжительность во времени (длину сообщения). Но количество информации воспринятой приемником в результате сообщения, характеризуется в итоге вовсе не длиной сообщения, а разнообразием сигналапорожденного в приемнике этим сообщением.

Память носителя информации имеет некоторую физическую ёмкость, в которой она способна накапливать образы, и количество накопленной в памяти информации, характеризуется в итоге именно разнообразиемзаполнения этой ёмкости.

Разнообразие необходимо при передаче информации. Нельзя нарисовать белым по белому, одного состояния недостаточно. Если ячейка памяти способна находиться только в одном (исходном) состоянии и не способна изменять свое состояние под внешним воздействием, это значит, что она не способна воспринимать и запоминать информацию. Информационная емкость такой ячейки равна 0.

Минимальное разнообразие обеспечивается наличием двух состояний. Если ячейка памяти способна, в зависимости от внешнего воздействия, принимать одно из двух состояний, которые условно обозначаются обычно как «0» и «1», она обладает минимальной информационной ёмкостью.

Информационная ёмкость одной ячейки памяти, способной находиться в двух различных состояниях, принята за единицу измерения количества информации - 1 бит.

1 бит (bit - сокращение от англ. binary digit - двоичное число) - единица измерения информационной емкости и количества информации, а также и еще одной величины – информационной энтропии, с которой мы познакомимся позже.

На физическом уровне бит является ячейкой памяти, которая в каждый момент времени находится в одном из двух состояний: «0» или «1».

Количество информации равное 1 биту можно получить в ответе на вопрос типа «да»/«нет». Если изначально вариантов ответов было больше двух, количество получаемой в конкретном ответе информации будет больше, чем 1 бит, если вариантов ответов меньше двух, т.е. один, то это не вопрос, а утверждение, следовательно, получения информации не требуется, раз неопределенностинет.

Информационная ёмкость ячейки памяти, способной воспринимать информацию, не может быть меньше 1 бита, но количество получаемой информации может быть и меньше, чем 1 бит. Это происходит тогда, когда варианты ответов «да» и «нет» не равновероятны. Неравновероятность в свою очередь является следствием того, что некоторая предварительная (априорная) информация по этому вопросу уже имеется, полученная, допустим, на основании предыдущего жизненного опыта. Таким образом, во всех рассуждениях предыдущего абзаца следует учитывать одну очень важную оговорку: они справедливы только для равновероятного случая.

Количество информации мы будем обозначать символом I, вероятность обозначается символом P. Напомним, что суммарная вероятность полной группы событий равна 1.