Соединения источников и приемников информации.

На практике: - с целью увеличения ИДЛ (h)
- с целью увеличения пропускной способности (I)

1)

 

 
 
 


∆H =∆H1+ ∆H2
Однако τв1+τ2 , поэтому если τ≫τв, гдеτ– время реакции приемника.
Если τ≪ τв,то схема 1) ничего не дает.

 

I2
I1
τ1
τ2
τ
∆H  
I
2)


h1 h2

 


∆H =∆H1=∆H2
I = I1 + I2
.


Если h1= h2 = h ; Iτ1 =Iτ2 =Iτв, где I = I1 + I2,
а τвэквивалентное внутреннее сопротивление источников информации:

τв = τ1 =τ2

Источники, соединенные параллельно, дают такой же ток, как и каждый из них в отдельности, если ττв. В противном случае, ток будет явно больше, чем в состоянии обеспечить один источник при той же нагрузке.

Не только источники, но и информационные сопротивления (нагрузки) могут быть соединены как последовательно, так и параллельно.

 

 

Рис.1 Рис


Общее время работы последовательно соединенных нагрузок (рис.1) будет равно сумме времени обработки всех программ отдельными нагрузками

При этом

 

При параллельном соединении нагрузок (рис.2) речь идет о том, что несколько исполнительных органов, каждый из которых в состоянии в одиночку достичь цели, одновременно получают управляющую информацию и одновременно выполняют операции, необходимые для достижения цели, сокращая время её достижения.

При этом источник должен обеспечивать информационный ток:

В качестве параллельных основной нагрузке могут выступать всякого рода утечки информации, например в такой роли могут оказаться контролирующие органы, которые иногда настолько перегружают источник различной информацией, что он снижает свое напряжение. Можно увеличить напряжение источника на

Либо уменьшить его внутреннее сопротивление до ,

где – ток, необходимый нагрузке, n – число входных устройств.

 

 

Произвольная комбинация источников и нагрузок.

Реальные информационные цепи часто представляют собой сложные комбинации источников информации и приемников, не сводимые только к последовательным или параллельным соединениям.

Например, в коллективе, где каждый член является одновременно нагрузкой и источником, взаимодействуя с другими.

К подобным цепям применимы «Информационные законы Кирхгофа».

1) Закон сохранения информации (принцип непрерывности тока): сумма токов, протекающих через любой узел цепи, равна нулю; здесь узел – любое разветвление проводников информации.

Для любого узла информационной цепи.

 

2) Основное свойство потенциального поля: суммарные падения напряжения по любым замкнутым путям между двумя узлами равны между собой (не зависят от пути).

 

Рассмотрим применение этих законов на практике:

Метод двух потенциалов для расчета информационных токов:

В общем случае, применяя информационные законы Кирхгофа, составляем уравнения для узлов и контуров, решения которых позволяют находить информационные напряжения и токи.