Концепции информации

В настоящее время, как я уже сказала, существует множество подходов к определению информации, некоторые из них являются по своей сути концептуальными. В качестве справки выделим наиболее распространенные концепции информации, каждая из которых по своему объясняет ее сущность.

Первая концепция (концепция К.Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события.

Теория информации начинается с работ К. Шеннона, опубликованных в конце 40-х годов XX в., в которых под информацией понимались не любые сообщения, а лишь те, которые уменьшают неопределенность у получателя этого сообщения. Неопределенность же, по воззрениям К. Шеннона, существует тогда, когда происходит выбор одной из нескольких возможностей. В теории Шеннона на первый план выдвигалась идея кода и канала передачи информации, а количество информации, характеризующее данное сообщение, определялось множеством всех возможных сообщений и их вероятностей независимо от их смыслового содержания

Шенноном были решены вопросы исчисления пропускной способности каналов связи, энтропии источников сообщений и т.д.

Совокупность этих представлений, названная К. Шенноном "математической теорией связи"[5], и явилась основой классической теории информации. Данный подход, хотя и не учитывает смысловую сторону информации, оказался весьма полезным в технике связи и вычислительной технике, послужил основой для измерения информации и оптимального кодирования сообщений.

Впоследствии появилась обобщенная теория информации – система представлений, стремящаяся использовать шенноновскую формулу для определения "количества информации", связанной с событиями, а не только с появлением на выходе канала связи очередного символа.

Вторая концепция рассматривает информацию как свойство (атрибут) материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или прибором. Наиболее ярко и образно эта концепция выражена академиком, д-ром физ.-мат. наук Виктором Михайловичем Глушковым. Вообще академик Глушков относится к плеяде выдающихся советских и украинских ученых, оказавших влияние не только на отечественную, но и на мировую науку. Именно Глушков дал современной кибернетике и информатике импульс дальнейшего развития по сравнению с Винером. В работе "Об информационных возможностях современных электронных вычислительных машин" еще в 1960 году он писал: "Под информацией в современной науке принято понимать меру неоднородности распределения материи и энергии в пространстве и во времени. При таком понимании информации, оказывается возможным говорить, например, об информации, которую несет солнечный луч, шум горного обвала, шорох листвы и т.д. Во всяком случае при этом необязательно требовать осмысленности, с которой неразрывно связывается понятие информации в ее обычном, житейском понимании".

Третья концепция основана на логико-семантическом подходе (семантика – изучение текста с точки зрения смысла), при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия и управления. Иными словами, информация – это действующая, полезная часть знаний. Представитель этой концепции доктор философских наук, проф., академик РАН Виктор Григорьевич Афанасьев, развивая логико-семантический подход, дает определение социальной информации: "Информация, циркулирующая в обществе, используемая в управлении социальными процессами, является социальной информацией. Она представляет собой знания, сообщения, сведения о социальной форме движения материи и обо всех других формах в той мере, в какой она используется обществом…"