Количественная мера Хартли-Шеннона

Информация как мера организации.

Появление информологии как науки относится к концу 50-х гг. XX в. В это время американский инженер Р. Хартли предпринял попытку ввести количественную меру информации, передающейся по каналам связи. В трудах Хартли и Шеннона информация выступает перед нами в своей внешней оболочке, представленной отношениями сообщений, знаков и сигналов между собой, т.е. синтаксическими отношениями. Количественная мера Хартли-Шеннона не притязает на оценку ценностной либо содержательной, полезной сторон транслируемого сообщения.

Как мы уже говорили, в новом, неклассическом понимании информация — это одна из трех субстанций мироздания, организующая материю. К другим двум относятся собственно материя и энергия (как мера движения материи). Такая научно-философская трактовка информации, по мнению ряда авторов, не дает по сути полного представления о содержании понятия информации, однако вполне отражает современные взгляды науки на универсальные характеристики, субстанции всего сущего.

Степень организации материи, т.е. объем информации в замкнутой системе, можно высчитать. Для этого и используется формула Шеннона, по которой объем информации представляет собой совокупность ее величин, характеризующих состояние системы, т.н. информационных состояний. Но мы не можем дать одновременно емкое и точное с теоретической точки зрения определение информации, в котором бы совмещались количественный и собственно понятийный компоненты значения. Сущность информации как раз и заключается в том, что ее неопределенному количеству противостоит определенное качество (содержание). Соответственно она легко поддается трансформации с использованием всего математического аппарата.

В связи с этим уместно будет дифференцировать информацию, как это делают некоторые авторы, на объективную («физическую») и субъективную («метафизическую»). Объективная информация присуща любому предмету и явлению действительности, заключает в себе их реальные физические свойства и потенциал. Она задана изначально и существует вне человека. Другими словами, объективная информация это такая информация, которая присуща объекту и отражает его сущность.

Формула Шеннона применительно к физической информации отображает закон природы. Метафизическая, или субъективная, информация являет собой весь объем знаний и представлений субъекта о предметах и явлениях действительности. «Субъективная информация» в количественном смысле есть знания о разнообразии состояний объекта и их распространенности (вероятностях). Формула Шеннона приложима в первую очередь именно к субъективной информации, а точность получаемых выводов зависит от степени приближения субъективной информации к объективной.

Формула Шеннона применительно к субъективной информации представляет собой конкретные расчеты, мера истинности которых прямо пропорциональна степени выраженности субъективной информации: в идеале она должна не сильно отдаляться от объективно-физической. Кроме того, если объективная информация о предмете существует, пока в мире наличествует данный предмет, то время «жизни» субъективной информации ограничено мгновениями: воспринимаясь субъектом мысли, она быстро переходит в разряд сведений.

Современная научная мысль вместе с существованием многозначной логики, неклассической геометрии, физики и т.д. допускает наличие множественности информационных систем. То есть не исключает возможности сосуществования разных «информационных состояний» у объекта в зависимости от физических условий (темпоральных, локальных) его функционирования, экзистенции. «Определение из теории информации гласит, что код— есть форма представления информации. Информация является субстанцией, что делает ее в такой трактовке эквивалентной другим субстанциям, которыми являются материя и энергия. Говоря о множественности форм одного содержания, следует иметь в виду, что при доказательстве множественности форм имелась в виду субъективная информация; та информация, которая используется человеком».

В этом плане понятие «бит» стало тем оселком, на котором довольно долго проверялось отношение различных ученых к содержанию понятия «информация» и ее роли в обществе, социальных группах и каждого отдельного человека. Поэтому немного о самом понятии «бит» и его небольшой, но богатой истории.

Название «bit» сформировано из двух начальных и одной последней буквы английского выражения «binary unit», что означает «двоичная единица». Бит — это не только единица количества информации, но также и единица измерения степени неопределенности. При этом подразумевается неопределенность, содержащаяся в одном опыте, имеющем два равновероятных исхода. Опираясь на идею, что информация всегда ликвидирует некую неясность, отражение ею всякого события либо объекта формально можно рассматривать как установку на то, в каком из допустимых состояний находится в данный момент изображаемый объект. В этом случае происхождение событий во времени есть не что иное, как перемена состояний, избранных с определенной вероятностью из всех допустимых. При этом чем выше степень неопределенности выбора, тем большее количество информации необходимо, а результат конечного выбора обладает существенной степенью неожиданности. Поэтому объем в теории информации, соответственно, есть мера снижения неопределенности в результате наблюдения одной случайной величины за другой. В том случае, если величины являются самостоятельными, объем информации равен нулю. А при всякой неопределенности ограничение участка выбора в два раза даст одну единицу информации.

В физике имеется еще понятие энтропии, характеризующей уровень беспорядочности физической системы. Хаотичность — это то, до какой степени наблюдатель мало знает о конкретной системе. В тот момент, когда наблюдатель обнаруживает что-либо новое для себя в физической системе, энтропия системы уменьшается, поскольку система становится более упорядоченной для наблюдателя. Если максимальное количество энтропии приходится на совершенно случайное состояние системы, то наибольшее количество информации характерно для целиком упорядоченной системы. Другими словами, информация о системе выражает меру организации неупорядоченности, а энтропия показывает ее степень.

Александр Прозоров в своей работе: «В поисках определения термина «информация» таким образом представляет обобщенное представление об информации:

1. «Информация как таковая существует независимо от нас, как одна из трех субстанций Универсума. В этом понимании информация является мерой организации, присущей материальным объектам.

2. Говоря об информации как таковой, мы имеем в виду количественный смысл только одной из ее составляющих: объективной либо субъективной.

3. Объективная информация — часть субстанции, неподвластная нашим намерениям; она существует независимо от нас и нашего представления о ней. Говорить, таким образом, о конкретном содержании (качественном смысле) объективной информации неверно.

4. Субъективная информация — часть субстанции, подвластная нам: мы можем получать ее из окружающих нас объектов или систем. Субъективной информации не существует без участия субъекта: она появляется в момент получения ее субъектом и в этот же момент аннигилирует (перестает существовать), переходя в сведения.

5. Количество получаемой субъективной информации тесно связано с количеством знаний у субъекта: дополнительные знания дают возможность получения дополнительной субъективной информации, недоступной другим субъектам, у которых отсутствуют эти знания. Говорить, таким образом, о качественном смысле (конкретном содержании) субъективной информации в общем виде (применительно к множеству субъектов) неверно в силу того, что восприятие субъективной информации индивидуально для каждого субъекта.

6. Форма и содержание: сущности, обязательно присутствующие вместе, но не зависящие друг от друга настолько, насколько это возможно. Принципиально возможна количественная оценка различных форм, без привязки к содержанию, следовательно, задача по поиску оптимальной формы для заданного содержания теоретически выполнима.

7. Количество информации в системе может быть увеличено путем равномерного перераспределения вероятностей существующих состояний, без введения новых.

Однако современное общество требует не только измерения объема информации, ему нужна также и мера значимости информации и прежде всего в рамках целей и задач, которые ставит перед собой каждый отдельный человек, различное социальное образование и по сути все общество и человечество в целом. Поэтому важно понять социальную составляющую понятия «информация».