Если частный характер количества информации специально не оговаривается, мы всегда имеем дело с количеством информации, приходящимся в среднем на один элемент сообщения.
3.6 Передача информации от непрерывного источника [1 и др.].
Количество информации, получаемой от непрерывного источника по каналу с помехами, определяется так же, как в случае, рассмотренном выше, но с использованием понятия дифференциальной энтропии.
Для источника, имеющего непрерывное множество состояний, среднее количество информации, содержащееся в каждом принятом значении случайной величины S относительно переданного значения случайной величины Z, можно получить как разность априорной и апостериорной дифференциальных энтропий:
(3.39)
Соотношение (3.39) несложно выразить в виде , подобном (3.38):
(3.40)
Относительность дифференциальных энтропий в этом случае не принимается во внимание, поскольку количество информации не зависит от выбранного стандарта сравнения.
3.7 Основные свойства количества информации [1 и др.].
1.Несмотря на то что частное количество информации может быть величиной отрицательной, количество информации неотрицательно.
Действительно, согласно выражению
(3.41)
Тогда
2.При отсутствии статистической связи между случайными величинамиZ и S
(3.42)
следовательно, в этом случае
(принятые элементы сообщения не несут никакой информации относительно переданных).
3.Количество информации в S относительно Z равно количеству информации в Zотносительно S.
Для доказательства этого утверждения воспользуемся выражением
Аналогично можно записать
Так как H(Z,S)=H(S,Z), то
откуда
(3.43)
4.При взаимно однозначном соответствии между множествами передаваемых и принимаемых элементов сообщений, что имеет место в отсутствии помехи, апостериорная энтропия равна нулю и количество информации численно совпадает с энтропией источника:
(3.44)