Детерминизм и хаос в природе

К оглавлению1 2 3 4 5 6 7 8 9 

В современной литературе механическая траектория движения, на­пример, бильярд­но­­го шара принимается образцом де­тер­­ми­низма, пред­сказуемости. Ут­вер­ждает­ся, что если заданы начальные условия и силы, а также извест­ны урав­не­ния, описывающие движение, то тра­ек­тория может быть рас­счи­тана впе­рёд в будущее или вос­ста­нов­лена в прошлом с любой на­перёд заданной точ­ностью.

Для движения одного шара в неограниченном пространстве это дей­ст­­вительно так и есть. Но если даже один шар движется в “биль­яр­де”, у которого хотя бы одна стенка является выпук­лой во­внутрь по­верхностью, то его тра­ектория в результате сколь угодно ма­лых оши­бок ста­но­вит­ся непредсказуемой. Это про­­ил­лю­стриро­ва­но на рис. 1 примером двух траек­торий шара А, отличающихся ма­лой угловой ошиб­кой началь­ных условий. Реаль­ность при­ро­ды в том, что в та­ком бильярде (или для многих взаи­мо­дей­ст­вую­щих “шаров”) клас­­­сический “образец де­тер­ми­низма” в виде ме­ха­­­ни­чес­ких траек­торий ста­но­вится синонимом одной из са­мых быст­ро на­ра­с­тающих неустой­чи­востей – максималь­ной непредска­зу­е­мос­ти.

Неустойчивость классической меха­ни­ческой тра­ек­тории как ре­зуль­­тат взаимодействия многих элементов между собой и с гра­ни­ца­ми областей движения давно и хорошо из­ве­ст­на. Однако фактом яв­ля­ют­ся многочис­лен­ные пуб­ли­кации о меха­ничес­кой тра­ек­тории как об­разце детерминизма и “вздохи” о том, что в этом кон­цы с концами не схо­дят­ся. Это же проявляется по отношению к нерв­ным системам и мозгу. В их описании ста­раются найти “траектории бильярдных ша­ров”. Но их там нет в силу запретов природы на навязываемые ей че­ло­веком определения детерминизма.

Аналогичное и с понятием противоположным детерминизму – о ха­о­се. Движение большого количества взаимодействующих “шаров” (напри­мер, мо­лекул в иде­­­аль­­ном газе) приводится всегда как образец хаоса. Опять это сопро­вож­дает парадокс. Например, в газе пове­де­ние единичной молекулы проследить и достоверно описать невоз­мож­­но, что и понимается под словом – хаос. Однако макроскопические па­ра­мет­ры объёма газа (давление, объём, температура, энтропия) опре­де­ле­­ны настолько точ­но, что это было основным воз­ра­жением при соз­да­нии Л. Больц­­­маном молекулярно-ки­нетической теории газов. При­ме­ров детерминизма, возникающего на основе хаоса, можно при­­­вести много. Однако они психологически таковыми часто не считаются.

Как показал ещё Л. Больцман и подчёркивается с тех пор клас­си­ками науки и хорошими учебниками, максимальный хаос, воз­мож­­ный в дан­ных ус­ло­виях и запомненный как таковой, есть наиболее де­тер­­ми­ни­ро­ван­ное состояние в природе. Не существует ни­че­го бо­лее точного в природе, чем положение максимума этого хаоса, опи­сы­ва­е­мого в тер­­минах характеристики случайностей – энтропии. Сам факт существо­ва­ния детерминированного объекта материаль­но яв­ляется его воспроизводимой ма­к­ро­скопической упорядо­чен­ностью, которая одно­вре­мен­но есть запомненный мак­си­­мум микроско­пи­­чес­ко­го хаоса сос­тав­ля­ющих его элементов. Однако энтропию, опи­сыва­ющую элементы-составляющие объекта, вос­при­нима­ют ис­клю­читель­­но как меру неоп­ре­делённости. Это ошибка.

По определению, уже давно принятому в науке, информация есть мера устранённой неопределённости. Поэтому энтропия (как харак­те­ристика беспорядка, на основе кото­рой произошло запоминание) есть одновременно мера информации, опи­сывающей конкретные объек­­­ты природы и, в частности, нервные системы и мозг. Энт­ро­пия в неживой и живой природе есть физическая переменная –  действие-энтропия-ин­­формация об объектах.

Какой именно вид будет иметь объект, который стал запом­нен­ным выражением хаоса сос­тав­ляющих его элементов – зависит от условий, ограничивающих случайное их поведение. Физическая пере­мен­­ная действие-энт­ро­пия-информация, выражаемая количеством, чис­лом есть из­ме­­ри­мая характеристика элементов, образующих объек­ты природы. Она описывает максимум вероятности состояний элемен­тов, кото­рые об­­ра­зуют объект. При большом коли­чест­ве эле­мен­тов си­стемы острота этого максимума исключительно велика. От­кло­нения в по­ве­­де­нии элементов системы от положенного для мак­си­­мума действия-энтро­пии-ин­фор­мации (наиболее вероятного поведения как осред­нения слу­чайностей) имеют непредставимо малую вероят­ность.

Запомненный хаос, ограниченный конкретными условиями – это и есть все объекты природы и про­дукты рук человека. Они устойчивы – повторимы. Их существо­ва­ние самим своим фактом устраняет ту вели­чину неопределён­ности, кото­рую выражает энтро­пия составляющих их элементов. Когда объекты существуют (то есть повторимы, запомнены) этим неопределённость устранена, а энтро­пия их элементов стала инфор­мацией об объектах.

Объекты на всех уровнях иерархии энтропии-информации возни­ка­ют в результате процесса синтеза информации. Цепочка: Случайности – Условия – Запоминание есть введенная в [1] – [9] конкретизация классического определения Г. Кастлером [11] понятия о синтезе информации как запоминании случайного выбора.

Самый высокий детерминизм в природе реализуется в виде запомненного осред­не­ние случайностей в максимуме вероятности для действия-энтропии-инфор­ма­ции при заданных условиях.

Это же относится к экст­ремумам действия-энтропии-информации, при дина­ми­ческих равновесиях, которые возникают как результат клас­­си­чески не­равновесных поцессов. В этом случае существование объек­тов (те­перь динами­чес­ких) зависит не только от экстремумов самой действия-энт­­ро­пии-информации, но и от экстре­му­мов её изме­не­ний (произ­водства энтропии и его возмущений).

Надо напомнить, что определение энтропии S в термо­динамике, введен­ное Л. Больцманом, ис­поль­зует подсчёт числа возможных со­с­тояний     системы при заданных их признаках и условиях:

,                                                (1)

где K есть адиабатический инвариант системы. Этот термин ввёл П. Эренфест [12] позже работ Больцмана. Кстати, определение энтро­пии в виде (1) ввёл М. Планк, как и название – постоянная Больцмана.

Энтропия как та же самая переменная определена Дж. Гиббсом на основе вероятностей   со­с­то­яний системы в виде:

.                                              (2)

Такое определение равноправно с больцмановским. Однако числа со­с­тояний   больше единицы, а вероятности состояний – меньше единицы. Поэтому их логарифмы имеют противоположный знак. Для то­го, чтобы это устранить, при определении энтропии (2) с помощью ве­ро­ятности состояний вводится знак минус.

Энт­ропия – положительно определённая адитивная переменная, поэтому выбор нуля для неё произволен. Поэтому в отдельных слу­ча­ях её можно использовать со знаком минус. 

Энтропия на основе числа возможных состояний в (1) или их веро­ят­­но­с­ти в (2) для эле­ментов в со­с­таве системы с разными признаками и свойствами может быть раз­­личной. Опре­де­­­­ле­ние энтропии долж­но это учи­­тывать. На­при­­­мер, в фор­ме (2) для этого надо ввести по груп­пам эле­мен­тов i  со­от­вет­ствующие им ве­ро­ят­нос­ти   . Поэтому оп­ределения энтропии (1), (2) без изменения прин­ци­пов получают фор­­­мы, де­та­лизирующие ус­ло­вия за­дач, в част­ности, вид ста­ти­стики.

В природе синтез информации в первую очередь участвует в суще­ст­вовании энтропии как физической переменной. Схема рис. 2 под­чёркивает три клас­са возника­ющих при этом задач:  А – синтез информации о виде  или  ,  в частности, о виде ста­ти­стики в определении энтропии (1), (2);   B –  синтез информации о ве­­ли­чи­не размерного мно­­жи­те­ля K в определе­нии энтропии (1), (2):  C – ус­та­но­в­ление связи энер­­­гии, числа элементов системы и коли­чества инфор­ма­­ции в ней в виде син­теза ин­фор­ма­ции на основе условий норми­ро­в­ки эн­т­ропии 1, [8] при за­дан­ных K и  или .  Классы про­цес­сов синтеза инфор­ма­­ции рис. 2 за­мы­ка­ют оп­ре­деление энтропии (1), (2) как физической пе­ре­менной. Они должны иметь фор­му реальных фи­зи­чес­ких процессов.

            Элементы системы подчиняются индивидуальным законам вза­­и­­мо­дей­ст­вий. Этим за­дан вид статистики  A, определяющей форму функ­ций  или  .  Признаки и свой­­ства элементов системы, за­ко­ны их вза­имо­действий задают воз­можность разных постоянных  K.  Должен су­ществовать процесс B, приводящий к однозначному опре­де­лению адиа­­батичес­ко­го инварианта  K   в функции условий задачи. Наконец, для заданных K и или   определение энтропии (1), (2) должно быть дополнено классическими ещё со вре­мён Больц­мана и Гиббса усло­виями нормировки энтропии. Это есть вид синтеза информа­ции, обозначенный на рис. 2  буквой  С.

            Законы природы всегда содержат обратные связи, зависящие от окружающей среды и её изменений в результате происходящих в ней процессов. Наиболее общий вид таких обратных связей – указанные на рис. 2 классы процессов синтеза информации.

            Последовательные процессы  A, B, C,  задающие вид стати­с­ти­ки, адиабатический инвариант системы, нормировку энтропии, есть состав­ля­ю­щие определения энтропии (1), (2).  Когда в термодинамике говорят об открытых системах, то их определение ограничивается си­с­­те­­мами с заданными или  и величиной  K. Важней­ши­­ми клас­сами открытых систем являются такие, в которых воздей­ст­вие из­вне фор­ми­рует K  и или,  а также определяет нор­ми­­ровку энт­ро­пии. Известный метод максимальной энтропии Е. Джейнса [13] и его раз­ви­тие Г. Хакеном [14] есть обощение больцмановской нор­ми­ровки энт­ропии в задачах теории информации. 

В современной литературе механическая траектория движения, на­пример, бильярд­но­­го шара принимается образцом де­тер­­ми­низма, пред­сказуемости. Ут­вер­ждает­ся, что если заданы начальные условия и силы, а также извест­ны урав­не­ния, описывающие движение, то тра­ек­тория может быть рас­счи­тана впе­рёд в будущее или вос­ста­нов­лена в прошлом с любой на­перёд заданной точ­ностью.

Для движения одного шара в неограниченном пространстве это дей­ст­­вительно так и есть. Но если даже один шар движется в “биль­яр­де”, у которого хотя бы одна стенка является выпук­лой во­внутрь по­верхностью, то его тра­ектория в результате сколь угодно ма­лых оши­бок ста­но­вит­ся непредсказуемой. Это про­­ил­лю­стриро­ва­но на рис. 1 примером двух траек­торий шара А, отличающихся ма­лой угловой ошиб­кой началь­ных условий. Реаль­ность при­ро­ды в том, что в та­ком бильярде (или для многих взаи­мо­дей­ст­вую­щих “шаров”) клас­­­сический “образец де­тер­ми­низма” в виде ме­ха­­­ни­чес­ких траек­торий ста­но­вится синонимом одной из са­мых быст­ро на­ра­с­тающих неустой­чи­востей – максималь­ной непредска­зу­е­мос­ти.

Неустойчивость классической меха­ни­ческой тра­ек­тории как ре­зуль­­тат взаимодействия многих элементов между собой и с гра­ни­ца­ми областей движения давно и хорошо из­ве­ст­на. Однако фактом яв­ля­ют­ся многочис­лен­ные пуб­ли­кации о меха­ничес­кой тра­ек­тории как об­разце детерминизма и “вздохи” о том, что в этом кон­цы с концами не схо­дят­ся. Это же проявляется по отношению к нерв­ным системам и мозгу. В их описании ста­раются найти “траектории бильярдных ша­ров”. Но их там нет в силу запретов природы на навязываемые ей че­ло­веком определения детерминизма.

Аналогичное и с понятием противоположным детерминизму – о ха­о­се. Движение большого количества взаимодействующих “шаров” (напри­мер, мо­лекул в иде­­­аль­­ном газе) приводится всегда как образец хаоса. Опять это сопро­вож­дает парадокс. Например, в газе пове­де­ние единичной молекулы проследить и достоверно описать невоз­мож­­но, что и понимается под словом – хаос. Однако макроскопические па­ра­мет­ры объёма газа (давление, объём, температура, энтропия) опре­де­ле­­ны настолько точ­но, что это было основным воз­ра­жением при соз­да­нии Л. Больц­­­маном молекулярно-ки­нетической теории газов. При­ме­ров детерминизма, возникающего на основе хаоса, можно при­­­вести много. Однако они психологически таковыми часто не считаются.

Как показал ещё Л. Больцман и подчёркивается с тех пор клас­си­ками науки и хорошими учебниками, максимальный хаос, воз­мож­­ный в дан­ных ус­ло­виях и запомненный как таковой, есть наиболее де­тер­­ми­ни­ро­ван­ное состояние в природе. Не существует ни­че­го бо­лее точного в природе, чем положение максимума этого хаоса, опи­сы­ва­е­мого в тер­­минах характеристики случайностей – энтропии. Сам факт существо­ва­ния детерминированного объекта материаль­но яв­ляется его воспроизводимой ма­к­ро­скопической упорядо­чен­ностью, которая одно­вре­мен­но есть запомненный мак­си­­мум микроско­пи­­чес­ко­го хаоса сос­тав­ля­ющих его элементов. Однако энтропию, опи­сыва­ющую элементы-составляющие объекта, вос­при­нима­ют ис­клю­читель­­но как меру неоп­ре­делённости. Это ошибка.

По определению, уже давно принятому в науке, информация есть мера устранённой неопределённости. Поэтому энтропия (как харак­те­ристика беспорядка, на основе кото­рой произошло запоминание) есть одновременно мера информации, опи­сывающей конкретные объек­­­ты природы и, в частности, нервные системы и мозг. Энт­ро­пия в неживой и живой природе есть физическая переменная –  действие-энтропия-ин­­формация об объектах.

Какой именно вид будет иметь объект, который стал запом­нен­ным выражением хаоса сос­тав­ляющих его элементов – зависит от условий, ограничивающих случайное их поведение. Физическая пере­мен­­ная действие-энт­ро­пия-информация, выражаемая количеством, чис­лом есть из­ме­­ри­мая характеристика элементов, образующих объек­ты природы. Она описывает максимум вероятности состояний элемен­тов, кото­рые об­­ра­зуют объект. При большом коли­чест­ве эле­мен­тов си­стемы острота этого максимума исключительно велика. От­кло­нения в по­ве­­де­нии элементов системы от положенного для мак­си­­мума действия-энтро­пии-ин­фор­мации (наиболее вероятного поведения как осред­нения слу­чайностей) имеют непредставимо малую вероят­ность.

Запомненный хаос, ограниченный конкретными условиями – это и есть все объекты природы и про­дукты рук человека. Они устойчивы – повторимы. Их существо­ва­ние самим своим фактом устраняет ту вели­чину неопределён­ности, кото­рую выражает энтро­пия составляющих их элементов. Когда объекты существуют (то есть повторимы, запомнены) этим неопределённость устранена, а энтро­пия их элементов стала инфор­мацией об объектах.

Объекты на всех уровнях иерархии энтропии-информации возни­ка­ют в результате процесса синтеза информации. Цепочка: Случайности – Условия – Запоминание есть введенная в [1] – [9] конкретизация классического определения Г. Кастлером [11] понятия о синтезе информации как запоминании случайного выбора.

Самый высокий детерминизм в природе реализуется в виде запомненного осред­не­ние случайностей в максимуме вероятности для действия-энтропии-инфор­ма­ции при заданных условиях.

Это же относится к экст­ремумам действия-энтропии-информации, при дина­ми­ческих равновесиях, которые возникают как результат клас­­си­чески не­равновесных поцессов. В этом случае существование объек­тов (те­перь динами­чес­ких) зависит не только от экстремумов самой действия-энт­­ро­пии-информации, но и от экстре­му­мов её изме­не­ний (произ­водства энтропии и его возмущений).

Надо напомнить, что определение энтропии S в термо­динамике, введен­ное Л. Больцманом, ис­поль­зует подсчёт числа возможных со­с­тояний     системы при заданных их признаках и условиях:

,                                                (1)

где K есть адиабатический инвариант системы. Этот термин ввёл П. Эренфест [12] позже работ Больцмана. Кстати, определение энтро­пии в виде (1) ввёл М. Планк, как и название – постоянная Больцмана.

Энтропия как та же самая переменная определена Дж. Гиббсом на основе вероятностей   со­с­то­яний системы в виде:

.                                              (2)

Такое определение равноправно с больцмановским. Однако числа со­с­тояний   больше единицы, а вероятности состояний – меньше единицы. Поэтому их логарифмы имеют противоположный знак. Для то­го, чтобы это устранить, при определении энтропии (2) с помощью ве­ро­ятности состояний вводится знак минус.

Энт­ропия – положительно определённая адитивная переменная, поэтому выбор нуля для неё произволен. Поэтому в отдельных слу­ча­ях её можно использовать со знаком минус. 

Энтропия на основе числа возможных состояний в (1) или их веро­ят­­но­с­ти в (2) для эле­ментов в со­с­таве системы с разными признаками и свойствами может быть раз­­личной. Опре­де­­­­ле­ние энтропии долж­но это учи­­тывать. На­при­­­мер, в фор­ме (2) для этого надо ввести по груп­пам эле­мен­тов i  со­от­вет­ствующие им ве­ро­ят­нос­ти   . Поэтому оп­ределения энтропии (1), (2) без изменения прин­ци­пов получают фор­­­мы, де­та­лизирующие ус­ло­вия за­дач, в част­ности, вид ста­ти­стики.

В природе синтез информации в первую очередь участвует в суще­ст­вовании энтропии как физической переменной. Схема рис. 2 под­чёркивает три клас­са возника­ющих при этом задач:  А – синтез информации о виде  или  ,  в частности, о виде ста­ти­стики в определении энтропии (1), (2);   B –  синтез информации о ве­­ли­чи­не размерного мно­­жи­те­ля K в определе­нии энтропии (1), (2):  C – ус­та­но­в­ление связи энер­­­гии, числа элементов системы и коли­чества инфор­ма­­ции в ней в виде син­теза ин­фор­ма­ции на основе условий норми­ро­в­ки эн­т­ропии 1, [8] при за­дан­ных K и  или .  Классы про­цес­сов синтеза инфор­ма­­ции рис. 2 за­мы­ка­ют оп­ре­деление энтропии (1), (2) как физической пе­ре­менной. Они должны иметь фор­му реальных фи­зи­чес­ких процессов.

            Элементы системы подчиняются индивидуальным законам вза­­и­­мо­дей­ст­вий. Этим за­дан вид статистики  A, определяющей форму функ­ций  или  .  Признаки и свой­­ства элементов системы, за­ко­ны их вза­имо­действий задают воз­можность разных постоянных  K.  Должен су­ществовать процесс B, приводящий к однозначному опре­де­лению адиа­­батичес­ко­го инварианта  K   в функции условий задачи. Наконец, для заданных K и или   определение энтропии (1), (2) должно быть дополнено классическими ещё со вре­мён Больц­мана и Гиббса усло­виями нормировки энтропии. Это есть вид синтеза информа­ции, обозначенный на рис. 2  буквой  С.

            Законы природы всегда содержат обратные связи, зависящие от окружающей среды и её изменений в результате происходящих в ней процессов. Наиболее общий вид таких обратных связей – указанные на рис. 2 классы процессов синтеза информации.

            Последовательные процессы  A, B, C,  задающие вид стати­с­ти­ки, адиабатический инвариант системы, нормировку энтропии, есть состав­ля­ю­щие определения энтропии (1), (2).  Когда в термодинамике говорят об открытых системах, то их определение ограничивается си­с­­те­­мами с заданными или  и величиной  K. Важней­ши­­ми клас­сами открытых систем являются такие, в которых воздей­ст­вие из­вне фор­ми­рует K  и или,  а также определяет нор­ми­­ровку энт­ро­пии. Известный метод максимальной энтропии Е. Джейнса [13] и его раз­ви­тие Г. Хакеном [14] есть обощение больцмановской нор­ми­ровки энт­ропии в задачах теории информации.