Концепции информации в современной науке

Еще в прошлом веке в Европе термин "информация" производился от предлога "in" — в и слова "forme" и трактовался как нечто упорядочивающее, оформляющее. Тогда "информатором" называли домашнего учителя, а "информацией" — учение, наставление. В толковых словарях и энциклопедиях, изданных в России, слово "информация" отсутствовало. "Открытие" понятия информации современной наукой произошло в середине XX века и, согласно справочной литературе, под информацией ныне понимают:

  • сведения, сообщения о чем-либо, которыми обмениваются люди;
  • сигналы, импульсы, образы, циркулирующие в технических (кибернетических) устройствах;
  • количественную меру устранения неопределенности (энтропии), меру организации системы;
  • отражение разнообразия в любых объектах и процессах неживой и живой природы.

Есть еще и другие ответы на вопрос "что такое информация?". Беда в том, что все эти ответы несовместимы друг с другом: информацией именуются абстрактный концепт, физическое свойство, функция самоуправляемых систем; информация объективна и субъективна, материальна и идеальна, это и вещь, и свойство, и отношение. Информация проникла в терминологию почти всех современных наук, и по этой причине признается общенаучной категорией. Содержание этой категории можно представить в виде следующих концепций информации.

7.1.1. Математическая теория информации: информация — абстрактная фикция

Единственное определение информации, которое не вызвало открытых возражений в научном сообществе, принадлежит "отцу кибернетики", математику Норберту Винеру (1894—1964), который в 1948 г. написал: "Информация есть информация, а не материя и не энергия". Из этого определения вытекает, что информация — не существующий реально объект, а умственная абстракция, то есть созданная человеческим разумом фикция.

В этом же смысле, в смысле математической абстракции понятие информации используется в теории информации(теории коммуникации), развитой в конце 40-х годов американским математиком Клодом Шенноном(род. в 1916 г.). В этой теории понятие информации служит для решения практических задач, с которыми сталкиваются инженеры-связисты: оптимизация кодирования сообщений, повышение помехоустойчивости, распознавание сигналов на фоне шумов, расчет пропускной способности каналов связи и т.п. К. Шеннон ориентировался на схему технической коммуникации, приведенную на рис. 1.3.

Каждому сигналу или их ансамблю (например, букве или слову), которые передаются по данному коммуникационному каналу, на основе известных статистических частот приписывалась априорная вероятность их появления. Считалось, что чем менее вероятно, т.е. чем более неожиданно, появление того или иного сигнала, тем больше информации для потребителя несет этот сигнал. Можно найти содержательные основания для подобной трактовки в обыденном понимании информации как новости, известия. Удобство вероятностно-статистического представления коммуникационной деятельности состоит в том, что можно ввести количественную меру для оценки степени "неожиданности" сообщения. В простейшем случае формула информации К. Шеннона имеет вид:

,

где I — количество информации, piвероятность появления i-го сигнала, n — количество возможных сигналов.

Если сигналов всего два и они равновероятны, то формула принимает вид: I = -1/2log-1/2log-log 1/2·

В случае двоичных логарифмов log 1/2 = - 1, а I получается равным 1. Это значение принято в теории Шеннона в качестве единицы измерения информации и называется бит.

Отсюда — понимание информации как снятой неопределенности или как результата выбора из возможных альтернатив. Есть другие математические концепции, не связывающие информацию с вероятностью. Например, в алгоритмической теории информации А.Н. Колмогорова информация — это длина алгоритма, позволяющего преобразовать один объект в другой, т. е. мера сложности объекта.

Ограниченность математических теорий информации заключается в том, что они полностью абстрагируются от осмысленности и ценности информации для потребителя. Получается, что "совокупность 100 букв, выбранных случайным образом, фраза в 100 букв из газеты, из пьесы Шекспира или теоремы Эйнштейна имеют в точности одинаковое количество информации".

В математических теориях понятие информации не связано ни с формой, ни с содержанием сообщений (сигналов), передаваемых по каналу связи. Информация, точнее количество информации, есть абстрактная фикция, умственный конструкт; она не существует в физической реальности, как не существуют логарифмы или мнимые числа.

С 60-х годов проблема информации привлекла внимание отечественных философов-материалистов, которые не могли примириться с тем, что информация — это идеальная фикция и попытались "материализовать" информацию, найти ей место в материально едином мире. Наиболее авторитетными в нашей философской науке считаются так называемые атрибутивная и функциональная концепции. Обе концепции утверждают, что информация существует в объективной действительности, но расходятся по поводу наличия ее в неживой природе. Первая рассматривает информацию как атрибут, присущий всем уровням материи, т. е. превращает информацию в материальный объект, а вторая — как функциональное качество самоуправляемых и самоорганизуемых (кибернетических) систем, превращая информацию в функцию. Рассмотрим более подробно содержание этих концепций информации.