Формула Шеннона (для неравновероятных событий)

Мощность кодируемого алфавита определяется по формуле

N=Mi ,

где M - мощность кодирующего алфавита, а i - количество символов кодирующего алфавита, которыми кодируется один символ кодируемого алфавита.

Если нет отдельных указаний, то следует считать, что мощность кодирующего алфавита компьютера - 2 символа. Все современные компьютеры работают с двумя символами, единицей и нулем, поэтому все расчеты делаются исходя из этого факта.

Американский ученый Клод Шеннон в 1948 году предложил формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

I = (3)

Эту меру, представляющую собой неопределенность, приходящуюся в среднем на одно состояние, называют энтропией дискретного источника информации.

Если ориентироваться на измерение неопределенности в двоичных единицах, то основание логарифма следует принять равным двум:

I = , (4)

где I — количество информации;

N — количество возможных событий;

Pi — вероятности отдельных событий.

Или развернутая форма формулы:

I = — ( p1log2 p1 + p2 log2 p2 + . . . + pNlog2pN) (5)

Пример (Формула Шеннона)

Какое количество информации будет содержать зрительное сообщение о цвете вынутого шарика, если в непрозрачном мешочке хранится: 10 белых, 20 красных, 30 синихи 40 зеленых шариков.