Cвойства информации
Объемный подход
Частотность букв русского языка
i | Символ | P(i) | I | Символ | P(i) | I | Символ | P(i) |
_ | 0.175 | Л | 0.035 | Б | 0.014 | |||
О | 0.090 | К | 0.028 | Г | 0.012 | |||
Е | 0.072 | М | 0.026 | Ч | 0.012 | |||
Ё | 0.072 | Д | 0.025 | Й | 0.010 | |||
А | 0.062 | П | 0.023 | Х | 0.009 | |||
И | 0.062 | У | 0.021 | Ж | 0.007 | |||
T | 0.053 | Я | 0.018 | Ю | 0.006 | |||
H | 0.053 | Ы | 0.016 | Ш | 0.006 | |||
C | 0.045 | З | 0.016 | Ц | 0.004 | |||
P | 0.040 | Ь | 0.014 | Щ | 0.003 | |||
B | 0.038 | Ъ | 0.014 | Э | 0.003 | |||
Ф | 0.002 |
Рассмотрим алфавит, состоящий из двух знаков 0 и 1. Если считать, что со знаками 0 и 1 в двоичном алфавите связаны одинаковые вероятности их появления (P(0)=P(1)= 0.5), то количество информации на один знак при двоичном кодировании будет равно H = log22 = 1 бит.
Таким образом, количество информации (в битах), заключенное в двоичном слове, равно числу двоичных знаков в нем.
В двоичной системе счисления знаки 0 и 1 называют битами (от английского выражения Binary digits — двоичные цифры). В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается по количеству требуемых для такой записи двоичных символов.
1 байт информации = 8 бит
1 килобайт (Кбайт) = 1024 байта
1 мегабайт (Мбайт) =1024 килобайта
1 гигабайт (Гбайт) =1024 мегабайт.
В прикладной информатике практически всегда количество информации понимается в объемном смысле.
Основные свойства информации:
· актуальность;
· надежность;
· достоверность;
· полнота;
· доступность;
· понятность и др.
В социальном плане появляются такие свойства, как истинность, своевременность, ценность, полнота и т.д. Их невозможно оценить в терминах «уменьшение неопределенности» (вероятностный подход) или числа символов (объемный подход). Обращение к качественной стороне информации породило иные подходы к ее оценке:
· аксиологический;
· семантический.
При аксиологическом подходе стремятся исходить из ценности, практической значимости информации, т.е. качественных характеристик, значимых в социальной системе.
При семантическом подходе информация рассматривается как с точки зрения формы, так и содержания. При этом информацию связывают с тезаурусом, т.е. полнотой систематизированного набора данных о предмете информации.
Понятие информации нельзя считать лишь техническим, междисциплинарным и даже наддисциплинарным термином. Информация — это фундаментальная философская категория.
Физическая трактовка информации построена на основе аналогии формулы Больцмана, описывающей энтропию статистической системы материальных частиц, и формулы Хартли.
Информацию следует считать особым видом ресурса, при этом имеется в виду толкование «ресурса» как запаса неких знаний материальных предметов или энергетических, структурных или каких-либо других характеристик предмета. В связи с таким взглядом центральными становятся следующие свойства информации:
· запоминаемость,
· передаваемость,
· преобразуемость,
· воспроизводимость,
· стираемость.
В настоящее время ученые стараются построить единую теорию, которая призвана формализовать понятие информации и информационного процесса, описать превращения информации в процессах самой разной природы. Информационные аспекты в разных системах составляют предмет новой междисциплинарной науки — синергетики.
Высшей формой информации, проявляющейся в управлении в социальных системах, являются знания. Это наддисциплинарное понятие, широко используемое в педагогике и исследованиях по искусственному интеллекту, также претендует на роль важнейшей философской категории.