Формула Шеннона (для неравновероятных событий)
Мощность кодируемого алфавита определяется по формуле
N=Mi ,
где M - мощность кодирующего алфавита, а i - количество символов кодирующего алфавита, которыми кодируется один символ кодируемого алфавита.
Если нет отдельных указаний, то следует считать, что мощность кодирующего алфавита компьютера - 2 символа. Все современные компьютеры работают с двумя символами, единицей и нулем, поэтому все расчеты делаются исходя из этого факта.
Американский ученый Клод Шеннон в 1948 году предложил формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.
I = (3)
Эту меру, представляющую собой неопределенность, приходящуюся в среднем на одно состояние, называют энтропией дискретного источника информации.
Если ориентироваться на измерение неопределенности в двоичных единицах, то основание логарифма следует принять равным двум:
I = , (4)
где I — количество информации;
N — количество возможных событий;
Pi — вероятности отдельных событий.
Или развернутая форма формулы:
I = — ( p1log2 p1 + p2 log2 p2 + . . . + pNlog2pN) (5)
Пример (Формула Шеннона)
Какое количество информации будет содержать зрительное сообщение о цвете вынутого шарика, если в непрозрачном мешочке хранится: 10 белых, 20 красных, 30 синихи 40 зеленых шариков.