Соединения источников и приемников информации.
На практике: - с целью увеличения ИДЛ (h)
- с целью увеличения пропускной способности (I)
1)
|
∆H =∆H1+ ∆H2
Однако τв=τ1+τ2 , поэтому если τ≫τв, гдеτ– время реакции приемника.
Если τ≪ τв,то схема 1) ничего не дает.
|
|
|
|
|
|
|
h1 h2
∆H =∆H1=∆H2
I = I1 + I2
.
Если h1= h2 = h ; Iτ1 =Iτ2 =Iτв, где I = I1 + I2,
а τв – эквивалентное внутреннее сопротивление источников информации:
τв = → τ1 =τ2
Источники, соединенные параллельно, дают такой же ток, как и каждый из них в отдельности, если τ≥ τв. В противном случае, ток будет явно больше, чем в состоянии обеспечить один источник при той же нагрузке.
Не только источники, но и информационные сопротивления (нагрузки) могут быть соединены как последовательно, так и параллельно.
Рис.1 Рис
Общее время работы последовательно соединенных нагрузок (рис.1) будет равно сумме времени обработки всех программ отдельными нагрузками
При этом
При параллельном соединении нагрузок (рис.2) речь идет о том, что несколько исполнительных органов, каждый из которых в состоянии в одиночку достичь цели, одновременно получают управляющую информацию и одновременно выполняют операции, необходимые для достижения цели, сокращая время её достижения.
При этом источник должен обеспечивать информационный ток:
В качестве параллельных основной нагрузке могут выступать всякого рода утечки информации, например в такой роли могут оказаться контролирующие органы, которые иногда настолько перегружают источник различной информацией, что он снижает свое напряжение. Можно увеличить напряжение источника на
Либо уменьшить его внутреннее сопротивление до ,
где – ток, необходимый нагрузке, n – число входных устройств.
Произвольная комбинация источников и нагрузок.
Реальные информационные цепи часто представляют собой сложные комбинации источников информации и приемников, не сводимые только к последовательным или параллельным соединениям.
Например, в коллективе, где каждый член является одновременно нагрузкой и источником, взаимодействуя с другими.
К подобным цепям применимы «Информационные законы Кирхгофа».
1) Закон сохранения информации (принцип непрерывности тока): сумма токов, протекающих через любой узел цепи, равна нулю; здесь узел – любое разветвление проводников информации.
Для любого узла информационной цепи.
2) Основное свойство потенциального поля: суммарные падения напряжения по любым замкнутым путям между двумя узлами равны между собой (не зависят от пути).
Рассмотрим применение этих законов на практике:
Метод двух потенциалов для расчета информационных токов:
В общем случае, применяя информационные законы Кирхгофа, составляем уравнения для узлов и контуров, решения которых позволяют находить информационные напряжения и токи.