7.1.1. Математическая теория информации: информация — абстрактная фикция

.

7.1.1. Математическая теория информации: информация — абстрактная фикция

Единственное определение информации, которое не вызвало открытых возражений в научном сообществе, при­надлежит «отцу кибернетики», математику Норберту Винеру (1894—1964), который в 1948 г. написал: «Инфор­мация есть информация, а не материя и не энергия». Из этого определения вытекает, что информация — не суще­ствующий реально объект, а умственная абстракция, то есть созданная человеческим разумом фикция.

В этом же смысле, в смысле математической абстрак­ции понятие информации используется в теории инфор­мации (теории коммуникации), развитой в конце 40-х го­дов американским математиком Клодом Шенноном (род. в 1916 г.). В этой теории понятие информации служит для решения практических задач, с которыми сталкиваются инженеры-связисты: оптимизация кодирования сообще­ний, повышение помехоустойчивости, распознавание сиг­налов на фоне шумов, расчет пропускной способности каналов связи и т.п. К. Шеннон ориентировался на схему технической коммуникации, приведенную на рис. 1.3.

Каждому сигналу или их ансамблю (например, букве или слову), которые передаются по данному коммуника­ционному каналу, на основе известных статистических частот приписывалась априорная вероятность их появле­ния. Считалось, что чем менее вероятно, т.е. чем более неожиданно, появление того или иного сигнала, тем боль­ше информации для потребителя несет этот сигнал. Мож­но найти содержательные основания для подобной трак­товки в обыденном понимании информации как новости, известия. Удобство вероятностно-статистического пред­ставления коммуникационной деятельности состоит в том, что можно ввести количественную меру для оценки степени «неожиданности» сообщения. В простейшем слу­чае формула информации К. Шеннона имеет вид:

 

где I — количество информации, pi — вероятность появле­ния i-го сигнала, n — количество возможных сигналов.

Если сигналов всего два и они равновероятны, то фор­мула принимает вид:

I =  -1/2log  -1/2log  -log 1/2·   

 

В случае двоичных логарифмов log 1/2 = -1, а I получает­ся равным 1. Это значение принято в теории Шеннона в ка­честве единицы измерения информации и называется бит.

Отсюда — понимание информации как снятой неопре­деленности или как результата выбора из возможных аль­тернатив. Есть другие математические концепции, не свя­зывающие информацию с вероятностью. Например, в алго­ритмической теории информации А.Н. Колмогорова информация — это длина алгоритма, позволяющего преоб­разовать один объект в другой, т. е. мера сложности объекта.

Ограниченность математических теорий информации заключается в том, что они полностью абстрагируются от осмысленности и ценности информации для потребите­ля. Получается, что «совокупность 100 букв, выбранных случайным образом, фраза в 100 букв из газеты, из пьесы Шекспира или теоремы Эйнштейна имеют в точности одинаковое количество информации».

В математических теориях понятие информации не свя­зано ни с формой, ни с содержанием сообщений (сигналов), передаваемых по каналу связи. Информация, точнее коли­чество информации, есть абстрактная фикция, умственный конструкт; она не существует в физической реальности, как не существуют логарифмы или мнимые числа.

С 60-х годов проблема информации привлекла внима­ние отечественных философов-материалистов, которые не могли примириться с тем, что информация — это идеаль­ная фикция и попытались «материализовать» информа­цию, найти ей место в материально едином мире. Наибо­лее авторитетными в нашей философской науке считают­ся так называемые атрибутивная и функциональная концепции. Обе концепции утверждают, что информация существует в объективной действительности, но расходят­ся по поводу наличия ее в неживой природе. Первая рассматривает информацию как атрибут, присущий всем уровням материи, т. е. превращает информацию в мате­риальный объект, а вторая — как функциональное каче­ство самоуправляемых и самоорганизуемых (кибернети­ческих) систем, превращая информацию в функцию. Рас­смотрим более подробно содержание этих концепций информации.