Основные понятия кибернетики

Прежде всего, рассмотрим два базовых понятия кибернетики из определения:

- сложная система;

- обратная связь.

Сложные системы состоят из большого числа элементов, и, стало быть, большого количества связей между ними. Чем оно больше, тем труднее поддается предмет исследования достижению конечного результата – выведению закономерностей функционирования данного объекта. Трудности изучения данных систем связаны и с тем обстоятельством, что чем сложнее система, тем больше у нее так называемых эмерджентных свойств, т.е. свойств, являющихся следствием эффекта целостности системы.

Такие сложные системы изучает, например, метеорология – наука о климатических процессах.

Разделение систем на простые и сложные является фундаментальным в естествознании.

Сложные системы не являются простой совокупностью элементов, даже объединенных связями. Дело в том, что структура системы может характеризоваться как по «горизонтали» (когда имеются в виду связи между однотипными, однопорядковыми компонентами системы, например, связи типа «хищник – жертва»), так и по «вертикали» (например, связи между биологической особью и популяцией, к которой принадлежит эта особь). «Вертикальная» структура приводит к понятию уровней системы и иерархии этих уровней.

Специфическим способом регулирования многоуровневой иерархии является управление – разнообразные способы связей уровней, обеспечивающие нормальное функционирование и развитие системы. Поскольку иерархичность строения является специфическим признаком систем, постольку связи управления можно рассматривать как одно из характерных выражений системообразующих связей.

Особенностью управления в сложных системах является наличие у них обратной связи.

Обратная связь – корректировка системой своих действий.

Поведение системы может усиливать внешнее воздействие: это называется положительной обратной связью. Если же оно уменьшает внешнее воздействие, то это отрицательная обратная связь. Особый случай – гомеостатические обратные связи, которые действуют, чтобы свести внешнее воздействие к нулю.

Пример: температура тела человека, которая остается постоянной благодаря гомеостатическим обратным связям. Таких механизмов в живом теле огромное количество.

Свойство системы, остающееся без изменений в потоке событий, называется инвариантом системы.

Механизм обратной связи делает систему принципиально иной, повышая степень ее внутренней организованности и давая возможность говорить о самоорганизации в данной системе.

Итак, все системы можно разделить на системы с обратной связью и без таковой. Наличие механизма обратной связи позволяет заключить о том, что система преследует какие-то цели, т.е. что ее поведение целесообразно.

Соответственно можно говорить о случайном и целесообразном поведении системы. Всякое целенаправленное поведение требует отрицательной обратной связи. Оно может быть предсказывающим или непредсказывающим. Предсказание может быть первого, второго и последующих порядков в зависимости от того, на сколько параметров распространяется предсказание. Чем их больше, тем совершеннее система.

Таким образом, можно сказать: если XVII столетие и начало XVIII столетия – век часов, а конец XVIII и все XIX столетие – век паровых машин и электричества, то настоящее время есть век связи и управления. В изучение этих процессов кибернетика внесла значительный вклад. Она изучает способы связи и модели управления, и в этом исследовании ей понадобилось еще одно понятие, которое было давно известным, но впервые получило фундаментальный статус в естествознании – понятие информации (от лат. informatio – ознакомление, разъяснение).

Само происхождение слова «информация» связано с сообщениями, сведениями, осведомлением. Такое значение понятия информации продержалось до середины ХХ века.

Более широкое и глубокое содержание оно получило в связи с потребностью в измерении количества передаваемых сведений, появившейся в связи с развитием телеграфа, телефона и других средств быстрой ее передачи. С этого момента возросла и значимость информации, поскольку обозначилась ее действенность для управления (в технике, в производстве, в социальной сфере).

Возникла проблема подсчета количества информации. В первой половине ХХ века ее все чаще стали связывать с категорией вероятности. Наиболее четко эта связь была установлена и исследована в работе американского математика и инженера К. Шеннона (1916-2001) «Математическая теория связи», опубликованной в 1948 году.

Понятие количества информации в вероятностном подходе определялось на основе теории вероятности. Понятие «вероятность», как известно, всегда применяется при описании неопределенных ситуаций, когда неопределенность либо присуща нашим знаниям, либо самим объектам. Связь эта такова: чем меньше вероятность явлений (их неопределенность), тем большее количество информации содержится в сообщении об этих явлениях.

Но статистической мерой вероятности в физике выступает энтропия. Энтропия возрастает, если система движется к своему равновесию, т.е. наиболее вероятному состоянию.

При сопоставлении различных математических теорий стало ясно, что между информацией и энтропией существует обратно пропорциональная зависимость: чем выше энтропия, тем меньше количество информации в системе и чем ниже уровень энтропии в системе, тем выше уровень информации в ней.

Н. Винер обратил внимание на данную связь, подчеркнув: энтропия и количество информации связаны потому, что они характеризуют реальную действительность с точки зрения соотношения хаоса и упорядоченности.

Итак, в данной теории информация – снятая неопределенность.

Но статистический метод не исчерпывает возможностей подсчета количества информации: имеются другие, невероятностные подходы. Более общее понимание информации оказалось связанным с понятием различия, разнообразия. Если в статистической теории понятие информации определяется как снятая, уничтоженная неопределенность (т.е. определенность), то в самом общем виде можно сказать, что информация – это снятое, уничтоженное однообразие, т.е. различие, разнообразие.

Понятие информации имеет такое большое значение, что оно вошло в заглавие нового научного направления, возникшего на базе кибернетики – информатики (название произошло из соединения слов информация и математика).

Понятие информации как меры организованности системы используется в противоположность понятию энтропии как меры неорганизованности. Можно установить обратно пропорциональную зависимость между информацией и энтропией. С повышением энтропии уменьшается информация (поскольку все усредняется) и наоборот, понижение энтропии увеличивает информацию. Связь информации с энтропией свидетельствует и о связи информации с энергией.

Информация растет с повышением разнообразия системы, но на этом ее связь с разнообразием не кончается. Одним из основных законов кибернетики является закон «необходимого разнообразия». В соответствие с ним эффективное управление какой-либо системой возможно только в том случае, когда разнообразие управляющей системы больше разнообразия управляемой системы.

СИНЕРГЕТИКА –междисциплинарное направление, изучающее развитие и эволюцию сложных систем.

Становление синергетики относится к 1970-ым годам. Особая роль в ее становлении принадлежит бельгийскому ученому русского происхождения И.Р. Пригожину (1917-2003). За свои исследования в области неравновесной термодинамики он в 1977 г. получил Нобелевскую премию. В Германии аналогичные разработки параллельно и независимо проводил Г. Хакен (род. 1927)

Мировоззренческое значение синергетики состоит в том, что она ввела представление о «стреле времени» – однонаправленности потока времени.

Направление времени никак не учитывается в классической механике. Классическая физика и особенно механика изучали обратимые процессы, в то время как биологические, социальные и гуманитарные науки ясно показывали, что предметом их исследования служат процессы необратимые, изменяющиеся во времени и имеющие свою историю.

Необратимое время появляется в физике в связи со становлением новой науки – термодинамики (наука о формах передачи тепла). Хотя ее представления о времени и об эволюции системы (в сторону деградации и дезорганизации системы) коренным образом отличается от понятия эволюции, которое лежало в основе теории Дарвина. В то время как в дарвиновской теории происхождения новых видов путем естественного отбора эволюция направлена на выживание более совершенных организмов и усложнение их организации, в термодинамике эволюция связывалась с дезорганизацией систем.

Это противоречие оставалось неразрешенным вплоть до 1960-х годов, пока не появилась неравновесная термодинамика, которая опирается на концепцию необратимых процессов.

Важным понятием нелинейной термодинамики является понятие открытой системы. В отличие от закрытых, или изолированных, открытые системы обмениваются с окружающей средой энергией, веществом и информацией. Все реальные системы являются именно открытыми.

В неорганической природе они обмениваются с внешней средой, которая также состоит из различных систем, обладающих энергией и веществом. В социальных и гуманитарных системах к этому добавляется обмен информацией. Информационный обмен осуществляется также в биологических системах, в частности при передаче генетической информации.

В открытых системах также производится энтропия, поскольку в них происходят необратимые процессы, но энтропия в этих системах не накапливается, как в закрытых системах, а выводится в окружающую среду. Поскольку энтропия характеризует степень беспорядка в системе, постольку можно сказать, что открытые системы живут за счет заимствования порядка из внешней среды.

Взаимодействуя со средой, открытая система не может оставаться замкнутой, ибо она вынуждена заимствовать извне либо новое вещество или свежую энергию и одновременно выводить в среду использованное вещество и отработанную энергию.

Такого рода материальные структуры, способные рассеивать (диссипиировать) энергию, называются диссипативными. Поэтому открытая система не может быть равновесной, потому что ее функционирование требует непрерывного поступления из внешней среды энергии или вещества, богатого энергией. В результате такого взаимодействия система извлекает порядок из окружающей среды и тем самым вносит беспорядок в эту среду.

Очень важное понятие синергетики – понятие бифуркации (принципиально непредсказуемый процесс и результат выбора системой пути собственного развития). Это понятие существенно изменило образ реальности в науке.

Самоорганизация в открытых системах

Открытие самоорганизации в простейших системах неорганической природы, прежде всего в физике и химии, имеет огромное научное и философско-мировоззренческое значение. Оно показывает, что такие процессы могут происходить в фундаменте самого «здания материи», и тем самым проливает новый свет на взаимосвязь живой природы с неживой.

С такой точки зрения возникновение жизни на Земле не кажется теперь таким редким и случайным явлением, как об этом говорили многие ученые раньше. С позиции самоорганизации становится также ясным, что весь окружающий нас мир и Вселенная представляют собой совокупность разнообразных самоорганизующихся процессов, которые служат основой любой эволюции.

Как же объясняет современная наука, и в частности, синергетика процесс самоорганизации систем? Можно выделить следующие условия самоорганизации.

1. Для этого система должна быть открытой, потому что закрытая, изолированная система в соответствии со вторым законом термодинамики в конечном итоге должна прийти в состояние, характеризуемое максимальным беспорядком или дезорганизацией.

2. Открытая система должна находиться достаточно далеко от точки термодинамического равновесия. Если система не находится в точке равновесия, то она обладает минимальной энтропией и потому достигается максимум ее самоорганизации. Если же система расположена вблизи или недалеко от точки равновесия, то со временем она приблизится к ней и, в конце концов, придет в состояние полной дезорганизации.

3. Если упорядочивающим принципом для изолированных систем является эволюция в сторону увеличения их энтропии или усиления их беспорядка (принцип Больцмана), то фундаментальным принципом самоорганизации служит, напротив, возникновение и усиление порядка через флуктуации - случайные, непредсказуемые колебания системы. Такие флуктуации или случайные отклонения системы от некоторого среднего положения в самом начале подавляются и ликвидируются системой. Однако в открытых системах благодаря усилению неравновесности эти отклонения со временем возрастают и в конце концов приводят к «расшатыванию» прежнего порядка и возникновению нового. Этот процесс обычно характеризуют как принцип образования порядка через флуктуации.

Так как флуктуации носят случайный характер (а именно с них начинается возникновение нового порядка и структуры), то становится ясным, что появление нового в мире всегда связано с действием случайных факторов.

В этом выводе находит свое конкретное подтверждение гениальная догадка античных философов Эпикура (314-270 до н.э.) и Тита Лукреция Кара (99-45 до н.э.), требовавших допущения случайности для объяснения появления нового в развитии мира.

4. В отличие от принципа отрицательной обратной связи, на котором основывается управление и сохранение динамического равновесия систем, возникновение самоорганизации опирается на диаметрально противоположный принцип – положительную обратную связь.

Функционирование различных технических регуляторов и автоматов основывается на принципе отрицательной связи, т.е. получении обратных сигналов от исполнительных органов относительно положения системы и последующей корректировки этого положения управляющими устройствами.

Для понимания самоорганизации следует обратиться к принципу положительной обратной связи, согласно которому изменения, появляющиеся в системе, не устраняются, а напротив, накапливаются и усиливаются, что и приводит к возникновению нового порядка и структуры.

5. Самоорганизация может начаться лишь в системах, обладающих достаточным количеством взаимодействующих между собой элементов и, следовательно, имеющих некоторые критические размеры. В противном случае эффекты от синергетического взаимодействия будут недостаточны для появления кооперативного (коллективного) поведения элементов системы и тем самым возникновения самоорганизации.