Лабораторная работа №6.

Информационный анализ зависимых сообщений.

 

1. Краткие теоретические сведения. При решении задач информационного анализа часто приходится исследовать несколько источников, дающих зависимые сообщения. Совокупность сообщений, вырабатываемых несколькими источниками, называется сложным сообщением.

Пусть имеется два источника сообщений. События первого источника принимают значения х1, х2 ,..., хn с вероятностями р(х1), р(х2),..., р(хn), а второго- y1 , y2 ,..., ym с вероятностями р(y1) ,р(y2) ,..., р(ym). Совместная энтропия такого сложного сообщения определяется по формуле:

(1)

 

p(xi,yi)-вероятность совместного появления сообщений xi и yi. Для сложных сообщений имеют место соотношения:

(2)

-энтропия сообщения х; (3)

-энтропия сообщения у; (4)

-средняя условная энтропия сообщения y(энтропия y при условии, что сообщение x уже поступило) ;(5)

-средняя условная энтропия сообщения x (энтропия x при условии, что сообщение y уже поступило); (6)

На практике при информационном анализе сложных сообщений вероятности p(x), p(y), p(x/y), p(y/x) приближенно оцениваются относительными частотами, которые вычисляются на основе экспериментальных данных.

2. Постановка задачи. Для оценки состояния объекта используются два статистически зависимых параметра X и Y.В результате эксперимента получены реализации процессов X(t), Y(t) на интервале . Требуется выполнить информационный анализ сложного сообщения (X,Y) о состоянии объекта.

3. Методика решения задачи.

3.1. Реализации непрерывных процессов X(t), Y(t) представляются в виде дискретных отсчетов Xk, Yk (N- общее количество точек реализации). Диапазоны изменения X и Y разбиваются на n и m интервалов в зависимости от необходимой точности измерения и .

3.2. Определяются относительные частоты попадания X и Y в интервалы W(xi), W(yi), а также относительные частоты событий W(xi,yi). Составляется таблица:

 

Yi Xi W(yj)
  X1 x2 xn  
y1 W(x1, y1) W(x2, y1) W(xn, y1) W(y1)
y2 W(x1, y2) W(x2, y2) W(xn, y2) W(y2)
ym W(x1, ym) W(x2, ym) W(xn, ym) W(ym)
W(xi) W(x1) W(x2) W(xn)  

 

3.3. Оценивается энтропия сообщений H(x), H(Y), по формулам:

 

3.4. Определяется энтропия сложного сообщения:

 

3.5. Рассчитывается условная энтропия по формулам:

3.6. Выполняется проверка расчетов с использованием соотношения:

 

4. Пример. Исходные данные. Даны две реализации процессов изменения статистически зависимых параметров X(t), Y(t).Требуется выполнить информационный анализ сложного сообщения (X,Y). Шаг квантования по времени . Необходимая точность измерения параметров .

1.Непрерывные реализации X(t), Y(t) на интервале c представляем в виде дискретных отсчетов Xk , Yk , т.к.

Таблица1

T
X 0.4 0.7 1.2 2.7 3.6 3.4 4.2 4.8 5.8 5.6 5.4 5.3 6.2
Y 0.6 1.5 2.8 2.7 3.2 3.8 6.4 7.4 6.6

 

T
X 6.9 7.8 8.7 9.1 9.8 9.6 9.9 8.4 7.7 7.6 6.7 5.4 5.5
Y 7.4 7.6 8.3 8.6 9.4 9.3 9.5 9.5 9.4 8.4 7.5 8.5

 

Диапазон изменения X и Y разбиваем на 5 интервалов, т.к. . Интервалы:(0;0.2) (0.2;0.4) (0.4;0.6) (0.6;0.8) (0.8;1).

2. Определяем по таблице 1 относительные частоты попадания X и Y в интервалы W(xi); W(yi), а также относительные частоты событий (xi, yi):W(xi, yi). Данные сводим в таблицу №2.

 

 

Таблица 2

  Xi
Yi x1 x2 x3 x4 x5 W(yj)
y1 3/30 3/30
y2 2/30 3/30 1/30 6/30
y3 1/30 1/30
y4 7/30 3/30 1/30 11/30
y5 3/30 6/30 9/30
W(xi) 5/30 3/30 9/30 6/30 7/30  

 

3. Оцениваем энтропию сообщений H(X),H(Y):

 

4. Определяем энтропию сложного сообщения H(x, y):

 

5. Вычисляем условные энтропии:

 

6. Выполняем проверку:

Точность расчетов удовлетворительная.

 

 

5. Задание. Для заданных реализаций X(t), Y(t) статистически зависимых величин выполнить информационный анализ сложного сообщения (X, Y).

 


Расчет информационных цепей.

Теоретические сведения. Информационная цепь представляет собой совокупность взаимодействующих источников, преобразователей и потребителей информации. Информационные цепи могут рассматриваться как модели процессов в системах управления различной природы. В общем случае информационные цепи представляют собой довольно сложные сильно разветвленные структуры. В простейшем случае система управления может быть представлена информационной цепью, содержащей источник, приемник и два информационных канала (рис. 1).

 

При этом управляющее устройство выступает в роли источника управляющей информации, а управляемый объект - в роли приемника или информационной нагрузки. Формализация информационных цепей может быть выполнена с использованием типовых идеализированных элементов по аналогии с электрическими, механическими, пневматическими цепями.

 

Информационное напряжение источника равно разности энтропий объекта управления (или логарифму отношения вероятностей) без управления Н0 и при наличии управления Н1, т.е.

(1)

Информационное сопротивление приемника равно времени реакции объекта управления на управляющую информацию rН (с).

Информационный ток через активную нагрузку равен отношению:

(бит/с) (2)

 

 

Источник информации также характеризуется сопротивлением rвн, которое определяется временем принятия решения. Кроме внутреннего сопротивления rвн источник характеризуется величиной информационно- движущей логики ИДЛ h, равной информационному напряжению на холостом ходу. ИДЛ характеризует интеллектуальные возможности источника при неограниченном времени на принятие решений. Т.о. простейшая полная информационная цепь имеет следующую структуру (рис. 2).

Для этой схемы информационный ток равен:

Кроме того:

В общем случае нагрузка характеризуется кроме информационного сопротивления также памятью и ригидностью.

Память определяется емкостью n, которая равна отношению запомненной информации к eе потенциалу (напряжению) , т. е.

(3)

Ригидностью называется свойство нагрузки, выражающееся в активном противодействии управлению, т. е. в выработке нагрузкой встречного информационного напряжения:

(4)

L - ригидность (с2).

С учетом свойств памяти и ригидности информационные цепи могут более сложную структуру. Для расчета таких цепей используются универсальные формулы, выражарающие законы Кирхгофа для информационных цепей.

1. Для любого узла информационной цепи алгебраическая сумма токов равна нулю:

(5)

2. Сумма падений напряжений вдоль любого замкнутого контура информационной цепи равна нулю:

(6)

По известным токам и напряжениям можно рассчитать информационную мощность:

(7)

Информационная мощность трактуется как рассеиваемый (на нагрузке) или вырабатываемый (источником) в единицу времени смысл С соответвующей интеллектуальной деятельности:

(8)

Если информационная цепь содержит источники и только активные элементы r, то выражение (5), (6) представляют собой систему алгебраических уравнений.

Пример 1. Информационная цепь задана структурной схемой (рис. 3). Требуется рассчитать информационные токи в цепи, а также смысл С4, рассеянный на элементе r4 за два часа работы системы, если h=10 бит; rвн=0.5 с; r1=1 c; r2=r3=5 c; r4=2 c.

 

Используя соотношения (5) и (6) составим 5 алгебраических уравнений для определения информационных токов I1, I2, I3, I4, I5:

I5=I1+I2 - для узла А

I2=I3+I4 - для узла Е

h=I5rBH+I1r1 - для контура ABC

h=I2r2+I3r3 - для контура AEDC

I3r3=I4r4 - для контура DEF

 

Подставляя значения параметров, получим:

Решая систему, найдем: I1=2,963 бит/с; I2=11,111 бит/с; I3=8,889 бит/с; I4=2,222 бит/с; I5=14,074 бит/с.

Мощность, рассеиваемая на элементе r4, равна:

бит/с

С учетом того, что n4 не зависит от времени, определим смысл, рассеянный на r4 за два часа работы:

бит2

Если информационная цепь содержит запоминающие и ригидные элементы, то выражения (5), (6) представляют собой систему дифференциальных уравнений, которая описывает переходные процессы в цепи для заданных значений параметров и начальных условий. При этом токи, напряжения и мощности будут представлять собой функции времени.

Пример 2. Информационная цепь задана структурной схемой (рис. 4). Для заданных значений параметров и начальных условий требуется определить закон изменения информационного тока на элементе r2, а также смысл, рассеянный на этом элементе за интервал времени c.

rBH=1 c; r1=0,6 c; r2=2 c; n=2; L=0,5 c2; h=1 бит; .

В соответствии с соотношениями (5), (6), составим систему дифференциальных и алгебраических уравнений для определения информационных токов в цепи:

 

 

 

- для узла С

 

- для контура DCE

 

- для контура ABCE

 

 

Введем обозначение rBH+r1=2. Тогда с учетом I1=I2+I3, третье уравнение системы примет вид:

Второе уравнение перепишем так:

Имеем систему:

Поставим в выражения для и во второе уравнение системы и приведем подобные:

С учетом известных исходных данных:

Решение уравнения ищется в виде суммы:

где I”3 - решение алгебраического уравнения.

I’3 есть решение исходного дифференциального уравнения без правой части:

Т. к. корни характеристического уравнения

действительные р1=-0,25; р2=-3,2, то решение для I’3 есть сумма экспонент:

Значит, общее решение имеет вид:

Постоянные с1 и с2 найдем с учетом начальных условий :

Частное решение для I3 имеет вид:

Закон изменения информационного тока I2:

Процесс изменения информационной мощности на сопротивлении r2:

Смысл, рассеянный на элементе r2 за интервал времени c равен:

бит

 

Задание. Для заданной информационной цепи рассчитать информационные токи, мощность и смысл, рассеиваемые на выделенном элементе.