ВИДЫ И СВОЙСТВА ИНФОРМАЦИИ

Свойств любых объектов можно разделить на два больших класса:

Внутренние характеризующие свойства самого объекта, например, невидимость электромагнитного поля;

Внешние это свойства объекта, характеризующие его поведение при взаимодействии с другими объектами, например, при взаимодействии электромагнитного поля с проводниками возможно появление в проводниках ЭДС или электрического тока.

Подобное разделение можно провести и для информации. С точки зрения потребителя можно выделить три группы внешних свойств информации:

Качество информации обобщенная характеристика, отражающая степень полезности ее для пользователя.

Научность информациилогическая закономерность однозначно соответствующая закономерностям природы, общества, мышлению.

Адекватность информациисвойство информации однозначно соответствовать отображаемому объекту или явлению.

В свою очередь качество информацииоценивается совокупностью критериев, которые характеризуют отдельные свойства информации:

· релевантностьспособность информации соответствовать нуждам (запросам) потребителя;

· полнота– свойства информации исчерпывающе описывать отображаемый объект или процесс;

· достоверность - свойства информации не иметь ошибок;

· защищенность - свойства информации, характеризующее невозможность ее несанкционированного использования или изменения.

По способу ее внутренней организации информацию можно разделить на две группы:

· данные или логически неупорядоченный набор сведений;

· логически упорядоченный набор данных.

Ко второй группе относится особым образом организованная информация – базы знаний. Эти данные представляют собой информацию не о каком-то единичном факте, а о том, как устроены все факты определенного типа информации.

 

4. Методы ИЗМЕРЕНИЯ информации.

 

Как и любое физическое вещество информация имеет свои количественные характеристики. В современной информатике приняты следующие методы измерения информации:

объемный;

энтропийный;

алгоритмический.

Объемный метод измерения характеризуется количеством символов, содержащихся в конкретном сообщении. В вычислительной технике вся информация, независимо от ее природы (текст, число, изображение и т.д.), представляется в двоичной форме записи, т.е. состоящей из различных комбинаций двух символов 0 и 1. Один такой символ в вычислительной технике называется битом, совокупность восьми таких символов называется байтом, а большое количество символов, которыми оперирует ЭВМ, называется словом.

Энтропийный метод измерения информации используется в теории информации и кодирования. Он основывается на мере неопределенности появления некоторой совокупности событий и выражается вероятностью появления этих событий. Количество информации в сообщении при энтропийном методе оценки определяется тем, насколько уменьшается эта мера после получения сообщения. В теории информации используется следующая количественная мера:

Э = log2 m,

где Э – энтропия;

m – число возможных равновероятных событий.

В случае, когда энтропия зависит не только от числа равновероятных событий выбора, но и от вероятности возможного выбора элемента информации К. Шеннон предложил следующую форму оценки энтропии:

Э = log2 (1/Рi) = - log2 Рi ,

где Рi – вероятность возможного выбора i-го элемента информации.

Тогда среднее количество информации при m числе выборке с вероятностью Рi каждой выборки определится выражением:

Алгоритмическая оценка информации характеризуется сложностью (размером) алгоритма (программы), которая позволяет ее произвести. На разных машинах и разных языках программирования такая оценка может быть разной. Поэтому задаются некоторой вычислительной машиной ( например, элементарной машиной Тьюринга), а предлагаемая количественная оценка информации определяется сложностью слова, как минимальное число внутренних состояний машины, требуемой для его воспроизведения.

Структурная схема машины Тьюринга приведена на рис. 2.2.

 

 

 
 

 


Рис. 2.2. Структурная схема машины Тьюринга.

 

Где обозначено:

УУ– управляющее устройство;

СГ – считывающая головка;

Лента – источник информации бесконечная лента.

 

Управляющее устройство УУ определяет положение считывающей головки СГ {qi } . В каждой ячейке ленты записан символ {ai }. Таким образом, состояние машины {si } определится выражением:

Si = qi * ai

Следующее перемещение ленты задается параметром {pi}. Тогда новое состояние машины определится следующим образом:

Si+1 = qi * ai *pi .

Таким образом, полное состояние машины Тьюринга можно задать, определив множества Q{qi }, A{ai }, P{pi}. Алгоритм определения состояния машины Тьюринга является единицей алгоритмического метода оценки информации.