Измерение информации

назад в содержание

Бит (binary digit — двоичное число) — минимальная единица измерения количества передаваемой или хранимой информации, обозначает один выбор, т. е. число операций, необходимых для кодирования информации передаваемой или хранимой двоичным кодом (0 и 1; • и —; + и —). Термин был введен, скорее всего, Клодом Шенноном (Claude Shannon) в 1940 г., либо Джоном Теки (John Tukey) в 1946 г.

В 90-х годах XX века для измерения быстродействия в информатике стали применяться единицы flops (Floating point Operations Per Second) — число чисел-результатов вычислений с плавающей точкой в секунду, или элементарных арифметических операций над числами с плавающей точкой, выполненных в секунду (бит/с).

В 1991 г. по опубликованным данным Г. Р. Иваницкого быстродействие «вычислительных функций» нервного импульса: период возбуждения (3 мс) и рефрактерный (невосприимчивый) период, со сниженной возбудимостью, (6 мс) определяют быстродействие на нейронах — 100 операций в секунду.

По данным исследователей университета Беркли в 2002 году человечеством было произведено информации 18-1018 байт, при этом в четырех информационных средах сохранения сохранено 5-1018 байт информации (печать — 0,01%, видео- и кинопленка — 7%, магнитные — 92% и оптические носители — 0,01%). Эти данные можно отнести к измерениям глобальной аккумуляции информации в интеллектуальной энергетике.

назад в содержание