Информация.

Информация (в переводе с латинского informatio - разъяснение, изложение) - это ключевое понятие современной науки, которое стоит в одном ряду с такими как "вещество" и "энергия". Существует три основные интерпретации понятия "информация".

Научная интерпретация. Информация - исходная общенаучная категория, отражающая структуру материи и способы ее познания, несводимая к другим, более простым понятиям.

Абстрактная интерпретация. Информация - некоторая последовательность символов, которые несут как вместе, так в отдельности некоторую смысловую нагрузку для исполнителя.

Конкретная интерпретация. В данной плоскости рассматриваются конкретные исполнители с учетом специфики их систем команд и семантики языка. Так, например, для машины информация - нули и единицы; для человека - звуки, образы, и т.п.

Существуют несколько концепций (теорий) информации.

Первая концепция (концепция К. Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации содержится в нем.

– формула Шеннона, где

I – количество информации,

N – количество возможных событий

Pi – вероятность возможного события.

Если события равновероятны, можно использовать обобщенную формулу Шеннона

– формула Хартли.

Определить понятие количества информации сложно. В конце 40-х годов XX века (1948 г) один из основоположников кибернетики американский ученый Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к объемному подходу.

Бит – это минимальная единица представлений информации, принимающая только два значения: 0 или 1.

1 – есть информация;

0 – нет информации.

Для автоматизации работы с данными, относящимися к различным типам, очень важно унифицировать их форму представления – для этого обычно используется прием кодирования, т.е. – выражение данных одного типа через данные другого типа. Например, для измерения длины в качестве эталона выбран метр, массы – килограмм и т.д.

Своя система существует в вычислительной технике – она называется двоичным кодированием и основана на представлении данных последовательностью всего двух знаков: 0 и 1. Эти знаки называются двоичными цифрами (бит). Каждая цифра машинного двоичного кода несет количество информации, равное одному биту.

1 байт=23 бит=8 бит

1 Кбайт=210байт=1024 байта

1 М байт=210Кбайт=220байт

1 Гбайт=210Мбайт=220Кбайт =230байт

1 Тбайт=210Гбайт=220Мбайт=230Кбайт=240байт

1 Пбайт=210Тбайт=220Гбайт=230Мбайт=240Кбайт=250байт

Существует формула, которая связывает между собой количество возможных событий N и количество информации I :

Вторая концепция рассматривает информацию как свойство (атрибут) материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или приборами. Наиболее ярко и образно эта концепция информации выражена академиком В.М. Глушковым, внесшим значительный вклад в развитие кибернетики в СССР (несмотря на ее конфликтность с существующей тогда доктриной(марксистско-ленинистской) и была признанна лженаукой, так как имела философский корни) .

Третья концепция основана на логико-семантическом (семантика - изучение текста с точки зрения смысла) подходе, при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия, для управления и самоуправления. Иными словами, информация - это действующая, полезная, "работающая" часть знаний. Представитель этой концепции В.Г. Афанасьев.

В настоящее время термин информация имеет глубокий и многогранный смысл. Во многом, оставаясь интуитивным, он получает разные смысловые наполнения в разных отраслях человеческой деятельности:

· в житейском аспекте под информацией понимают сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами;

· в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;

· в теории информации (по К.Шеннону) важны не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую неопределенность;

· в кибернетике, по определению Н. Винера, информация - эта та часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;

· в семантической теории (смысл сообщения) - это сведения, обладающие новизной, и так далее...

 

Такое разнообразие подходов не случайность, а следствие того, что выявилась необходимость осознанной организации процессов движения и обработки того, что имеет общее название - информация.