ВИДЫ И СВОЙСТВА ИНФОРМАЦИИ
Свойств любых объектов можно разделить на два больших класса:
Внутренние – характеризующие свойства самого объекта, например, невидимость электромагнитного поля;
Внешние – это свойства объекта, характеризующие его поведение при взаимодействии с другими объектами, например, при взаимодействии электромагнитного поля с проводниками возможно появление в проводниках ЭДС или электрического тока.
Подобное разделение можно провести и для информации. С точки зрения потребителя можно выделить три группы внешних свойств информации:
Качество информации – обобщенная характеристика, отражающая степень полезности ее для пользователя.
Научность информации – логическая закономерность однозначно соответствующая закономерностям природы, общества, мышлению.
Адекватность информации – свойство информации однозначно соответствовать отображаемому объекту или явлению.
В свою очередь качество информацииоценивается совокупностью критериев, которые характеризуют отдельные свойства информации:
· релевантность – способность информации соответствовать нуждам (запросам) потребителя;
· полнота– свойства информации исчерпывающе описывать отображаемый объект или процесс;
· достоверность - свойства информации не иметь ошибок;
· защищенность - свойства информации, характеризующее невозможность ее несанкционированного использования или изменения.
По способу ее внутренней организации информацию можно разделить на две группы:
· данные или логически неупорядоченный набор сведений;
· логически упорядоченный набор данных.
Ко второй группе относится особым образом организованная информация – базы знаний. Эти данные представляют собой информацию не о каком-то единичном факте, а о том, как устроены все факты определенного типа информации.
4. Методы ИЗМЕРЕНИЯ информации.
Как и любое физическое вещество информация имеет свои количественные характеристики. В современной информатике приняты следующие методы измерения информации:
объемный;
энтропийный;
алгоритмический.
Объемный метод измерения характеризуется количеством символов, содержащихся в конкретном сообщении. В вычислительной технике вся информация, независимо от ее природы (текст, число, изображение и т.д.), представляется в двоичной форме записи, т.е. состоящей из различных комбинаций двух символов 0 и 1. Один такой символ в вычислительной технике называется битом, совокупность восьми таких символов называется байтом, а большое количество символов, которыми оперирует ЭВМ, называется словом.
Энтропийный метод измерения информации используется в теории информации и кодирования. Он основывается на мере неопределенности появления некоторой совокупности событий и выражается вероятностью появления этих событий. Количество информации в сообщении при энтропийном методе оценки определяется тем, насколько уменьшается эта мера после получения сообщения. В теории информации используется следующая количественная мера:
Э = log2 m,
где Э – энтропия;
m – число возможных равновероятных событий.
В случае, когда энтропия зависит не только от числа равновероятных событий выбора, но и от вероятности возможного выбора элемента информации К. Шеннон предложил следующую форму оценки энтропии:
Э = log2 (1/Рi) = - log2 Рi ,
где Рi – вероятность возможного выбора i-го элемента информации.
Тогда среднее количество информации при m числе выборке с вероятностью Рi каждой выборки определится выражением:
Алгоритмическая оценка информации характеризуется сложностью (размером) алгоритма (программы), которая позволяет ее произвести. На разных машинах и разных языках программирования такая оценка может быть разной. Поэтому задаются некоторой вычислительной машиной ( например, элементарной машиной Тьюринга), а предлагаемая количественная оценка информации определяется сложностью слова, как минимальное число внутренних состояний машины, требуемой для его воспроизведения.
Структурная схема машины Тьюринга приведена на рис. 2.2.
![]() |
Рис. 2.2. Структурная схема машины Тьюринга.
Где обозначено:
УУ– управляющее устройство;
СГ – считывающая головка;
Лента – источник информации бесконечная лента.
Управляющее устройство УУ определяет положение считывающей головки СГ {qi } . В каждой ячейке ленты записан символ {ai }. Таким образом, состояние машины {si } определится выражением:
Si = qi * ai
Следующее перемещение ленты задается параметром {pi}. Тогда новое состояние машины определится следующим образом:
Si+1 = qi * ai *pi .
Таким образом, полное состояние машины Тьюринга можно задать, определив множества Q{qi }, A{ai }, P{pi}. Алгоритм определения состояния машины Тьюринга является единицей алгоритмического метода оценки информации.