Cвойства информации

Объемный подход

Частотность букв русского языка

i Символ P(i) I Символ P(i) I Символ P(i)
_ 0.175 Л 0.035 Б 0.014
О 0.090 К 0.028 Г 0.012
Е 0.072 М 0.026 Ч 0.012
Ё 0.072 Д 0.025 Й 0.010
А 0.062 П 0.023 Х 0.009
И 0.062 У 0.021 Ж 0.007
T 0.053 Я 0.018 Ю 0.006
H 0.053 Ы 0.016 Ш 0.006
C 0.045 З 0.016 Ц 0.004
P 0.040 Ь 0.014 Щ 0.003
B 0.038 Ъ 0.014 Э 0.003
            Ф 0.002

 

Рассмотрим алфавит, состоящий из двух знаков 0 и 1. Если считать, что со знаками 0 и 1 в двоичном алфавите связаны одинаковые вероятности их появления (P(0)=P(1)= 0.5), то количество информации на один знак при двоичном кодировании будет равно H = log22 = 1 бит.

Таким образом, количество информации (в битах), заключенное в двоичном слове, равно числу двоичных знаков в нем.

В двоичной системе счисления знаки 0 и 1 называют битами (от английского выражения Binary digits — двоичные цифры). В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается по количеству требуемых для такой записи двоичных символов.

1 байт информации = 8 бит

1 килобайт (Кбайт) = 1024 байта

1 мегабайт (Мбайт) =1024 килобайта

1 гигабайт (Гбайт) =1024 мегабайт.

В прикладной информатике практически всегда количество информации понимается в объемном смысле.

 

 

Основные свойства информации:

· актуальность;

· надежность;

· достоверность;

· полнота;

· доступность;

· понятность и др.

В социальном плане появляются такие свойства, как истинность, своевременность, ценность, полнота и т.д. Их невозможно оценить в терминах «уменьшение неопределенности» (вероятностный подход) или числа символов (объемный подход). Обращение к качественной стороне информации породило иные подходы к ее оценке:

· аксиологический;

· семантический.

При аксиологическом подходе стремятся исходить из ценности, практической значимости информации, т.е. качественных характеристик, значимых в социальной системе.

При семантическом подходе информация рассматривается как с точки зрения формы, так и содержания. При этом информацию связывают с тезаурусом, т.е. полнотой систематизированного набора данных о предмете информации.

Понятие информации нельзя считать лишь техническим, междисциплинарным и даже наддисциплинарным термином. Информация — это фундаментальная философская категория.

Физическая трактовка информации построена на основе аналогии формулы Больцмана, описывающей энтропию статистической системы материальных частиц, и формулы Хартли.

Информацию следует считать особым видом ресурса, при этом имеется в виду толкование «ресурса» как запаса неких знаний материальных предметов или энергетических, структурных или каких-либо других характеристик предмета. В связи с таким взглядом центральными становятся следующие свойства информации:

· запоминаемость,

· передаваемость,

· преобразуемость,

· воспроизводимость,

· стираемость.

В настоящее время ученые стараются построить единую теорию, которая призвана формализовать понятие информации и информационного процесса, описать превращения информации в процессах самой разной природы. Информационные аспекты в разных системах составляют предмет новой междисциплинарной науки — синергетики.

Высшей формой информации, проявляющейся в управлении в социальных системах, являются знания. Это наддисциплинарное понятие, широко используемое в педагогике и исследованиях по искусственному интеллекту, также претендует на роль важнейшей философской категории.