Объемный подход
Измерение количества информации
Использование терминов «больше информации» или «меньше информации» подразумевает некую возможность ееизмерения (или хотя бы количественного соотнесения).
В решении этой проблемы существуют два основных подхода: вероятностный и объемный. Американский инженер Р. Хартли в 1928 г. рассматривал процесс получения информации как выбор одного сообщения из конечного заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N:
I=log2N.
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется:
I= Log2100 ~ 6,644.
Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.
Клод Шеннон развил вероятностный подход к измерению количества информации. В 1948 году он предложил другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе. Формула Хартли является частным случаем формулы Шеннона. Работы Джон фон Неймана по созданию ЭВМ привели к объемному подходу измерения количества информации.
Объем информации в сообщении – это количество символов в сообщении. Поскольку, например, одно и то же число может быть записано многими разными способами (использованием разных алфавитов):
«двадцать пять»
XXV
то этот способ чувствителен форме представления (записи) сообщения. В вычислительной технике вся обрабатываемая и хранимая информация вне зависимости от ее природы (число, текст, отображение) представлена в двоичной форме с использованием алфавита, состоящего из двух символов 0 и 1, называемых битами (от английского Binary digit — двоичная цифра). Такая стандартизация позволила ввести две стандартные единицы: бит и байт. Байт – это восемь бит.
Для измерения количества информации используются также более крупные единицы:
1 Килобайт = 1024 байта ( 210 байта)
1 Мегабайт =1024 Кбайта (220 байта)
1 Гигабайт = 1024 Мбайта (230 байта)
1 Терабайт = 1024 Гбайта (240 байта)
1 Петабайт = 1024 Тбайта (250 байта)
1 Экзабайт = 1024 Пбайта (260 байта)
Контрольные вопросы
1.Как Вы понимаете понятие информации и какое определение можно дать?
2. Какие существуют подходы к определению количества информации и кто их открыл?
3. Чем отличается байт от бита?
4.Более крупные единицы измерения информации и как они определяются?
5. Сколько различных информации можно написать одним байтом и обоснуйте почему?
6. В чем состоит процедура дискретизации непрерывной информации?
7. Какая форма представления информации - непрерывная или дискретная приемлема для компьютеров и почему?