Детерминизм и хаос в природе
К оглавлению1 2 3 4 5 6 7 8 9В современной литературе механическая траектория движения, например, бильярдного шара принимается образцом детерминизма, предсказуемости. Утверждается, что если заданы начальные условия и силы, а также известны уравнения, описывающие движение, то траектория может быть рассчитана вперёд в будущее или восстановлена в прошлом с любой наперёд заданной точностью.
Для движения одного шара в неограниченном пространстве это действительно так и есть. Но если даже один шар движется в “бильярде”, у которого хотя бы одна стенка является выпуклой вовнутрь поверхностью, то его траектория в результате сколь угодно малых ошибок становится непредсказуемой. Это проиллюстрировано на рис. 1 примером двух траекторий шара А, отличающихся малой угловой ошибкой начальных условий. Реальность природы в том, что в таком бильярде (или для многих взаимодействующих “шаров”) классический “образец детерминизма” в виде механических траекторий становится синонимом одной из самых быстро нарастающих неустойчивостей – максимальной непредсказуемости.
Неустойчивость классической механической траектории как результат взаимодействия многих элементов между собой и с границами областей движения давно и хорошо известна. Однако фактом являются многочисленные публикации о механической траектории как образце детерминизма и “вздохи” о том, что в этом концы с концами не сходятся. Это же проявляется по отношению к нервным системам и мозгу. В их описании стараются найти “траектории бильярдных шаров”. Но их там нет в силу запретов природы на навязываемые ей человеком определения детерминизма.
Аналогичное и с понятием противоположным детерминизму – о хаосе. Движение большого количества взаимодействующих “шаров” (например, молекул в идеальном газе) приводится всегда как образец хаоса. Опять это сопровождает парадокс. Например, в газе поведение единичной молекулы проследить и достоверно описать невозможно, что и понимается под словом – хаос. Однако макроскопические параметры объёма газа (давление, объём, температура, энтропия) определены настолько точно, что это было основным возражением при создании Л. Больцманом молекулярно-кинетической теории газов. Примеров детерминизма, возникающего на основе хаоса, можно привести много. Однако они психологически таковыми часто не считаются.
Как показал ещё Л. Больцман и подчёркивается с тех пор классиками науки и хорошими учебниками, максимальный хаос, возможный в данных условиях и запомненный как таковой, есть наиболее детерминированное состояние в природе. Не существует ничего более точного в природе, чем положение максимума этого хаоса, описываемого в терминах характеристики случайностей – энтропии. Сам факт существования детерминированного объекта материально является его воспроизводимой макроскопической упорядоченностью, которая одновременно есть запомненный максимум микроскопического хаоса составляющих его элементов. Однако энтропию, описывающую элементы-составляющие объекта, воспринимают исключительно как меру неопределённости. Это ошибка.
По определению, уже давно принятому в науке, информация есть мера устранённой неопределённости. Поэтому энтропия (как характеристика беспорядка, на основе которой произошло запоминание) есть одновременно мера информации, описывающей конкретные объекты природы и, в частности, нервные системы и мозг. Энтропия в неживой и живой природе есть физическая переменная – действие-энтропия-информация об объектах.
Какой именно вид будет иметь объект, который стал запомненным выражением хаоса составляющих его элементов – зависит от условий, ограничивающих случайное их поведение. Физическая переменная действие-энтропия-информация, выражаемая количеством, числом есть измеримая характеристика элементов, образующих объекты природы. Она описывает максимум вероятности состояний элементов, которые образуют объект. При большом количестве элементов системы острота этого максимума исключительно велика. Отклонения в поведении элементов системы от положенного для максимума действия-энтропии-информации (наиболее вероятного поведения как осреднения случайностей) имеют непредставимо малую вероятность.
Запомненный хаос, ограниченный конкретными условиями – это и есть все объекты природы и продукты рук человека. Они устойчивы – повторимы. Их существование самим своим фактом устраняет ту величину неопределённости, которую выражает энтропия составляющих их элементов. Когда объекты существуют (то есть повторимы, запомнены) этим неопределённость устранена, а энтропия их элементов стала информацией об объектах.
Объекты на всех уровнях иерархии энтропии-информации возникают в результате процесса синтеза информации. Цепочка: Случайности – Условия – Запоминание есть введенная в [1] – [9] конкретизация классического определения Г. Кастлером [11] понятия о синтезе информации как запоминании случайного выбора.
Самый высокий детерминизм в природе реализуется в виде запомненного осреднение случайностей в максимуме вероятности для действия-энтропии-информации при заданных условиях.
Это же относится к экстремумам действия-энтропии-информации, при динамических равновесиях, которые возникают как результат классически неравновесных поцессов. В этом случае существование объектов (теперь динамических) зависит не только от экстремумов самой действия-энтропии-информации, но и от экстремумов её изменений (производства энтропии и его возмущений).
Надо напомнить, что определение энтропии S в термодинамике, введенное Л. Больцманом, использует подсчёт числа возможных состояний системы при заданных их признаках и условиях:
, (1)
где K есть адиабатический инвариант системы. Этот термин ввёл П. Эренфест [12] позже работ Больцмана. Кстати, определение энтропии в виде (1) ввёл М. Планк, как и название – постоянная Больцмана.
Энтропия как та же самая переменная определена Дж. Гиббсом на основе вероятностей состояний системы в виде:
. (2)
Такое определение равноправно с больцмановским. Однако числа состояний больше единицы, а вероятности состояний – меньше единицы. Поэтому их логарифмы имеют противоположный знак. Для того, чтобы это устранить, при определении энтропии (2) с помощью вероятности состояний вводится знак минус.
Энтропия – положительно определённая адитивная переменная, поэтому выбор нуля для неё произволен. Поэтому в отдельных случаях её можно использовать со знаком минус.
Энтропия на основе числа возможных состояний в (1) или их вероятности в (2) для элементов в составе системы с разными признаками и свойствами может быть различной. Определение энтропии должно это учитывать. Например, в форме (2) для этого надо ввести по группам элементов i соответствующие им вероятности . Поэтому определения энтропии (1), (2) без изменения принципов получают формы, детализирующие условия задач, в частности, вид статистики.
В природе синтез информации в первую очередь участвует в существовании энтропии как физической переменной. Схема рис. 2 подчёркивает три класса возникающих при этом задач: А – синтез информации о виде или , в частности, о виде статистики в определении энтропии (1), (2); B – синтез информации о величине размерного множителя K в определении энтропии (1), (2): C – установление связи энергии, числа элементов системы и количества информации в ней в виде синтеза информации на основе условий нормировки энтропии 1, [8] при заданных K и или . Классы процессов синтеза информации рис. 2 замыкают определение энтропии (1), (2) как физической переменной. Они должны иметь форму реальных физических процессов.
Элементы системы подчиняются индивидуальным законам взаимодействий. Этим задан вид статистики A, определяющей форму функций или . Признаки и свойства элементов системы, законы их взаимодействий задают возможность разных постоянных K. Должен существовать процесс B, приводящий к однозначному определению адиабатического инварианта K в функции условий задачи. Наконец, для заданных K и или определение энтропии (1), (2) должно быть дополнено классическими ещё со времён Больцмана и Гиббса условиями нормировки энтропии. Это есть вид синтеза информации, обозначенный на рис. 2 буквой С.
Законы природы всегда содержат обратные связи, зависящие от окружающей среды и её изменений в результате происходящих в ней процессов. Наиболее общий вид таких обратных связей – указанные на рис. 2 классы процессов синтеза информации.
Последовательные процессы A, B, C, задающие вид статистики, адиабатический инвариант системы, нормировку энтропии, есть составляющие определения энтропии (1), (2). Когда в термодинамике говорят об открытых системах, то их определение ограничивается системами с заданными или и величиной K. Важнейшими классами открытых систем являются такие, в которых воздействие извне формирует K и или, а также определяет нормировку энтропии. Известный метод максимальной энтропии Е. Джейнса [13] и его развитие Г. Хакеном [14] есть обощение больцмановской нормировки энтропии в задачах теории информации.
В современной литературе механическая траектория движения, например, бильярдного шара принимается образцом детерминизма, предсказуемости. Утверждается, что если заданы начальные условия и силы, а также известны уравнения, описывающие движение, то траектория может быть рассчитана вперёд в будущее или восстановлена в прошлом с любой наперёд заданной точностью.
Для движения одного шара в неограниченном пространстве это действительно так и есть. Но если даже один шар движется в “бильярде”, у которого хотя бы одна стенка является выпуклой вовнутрь поверхностью, то его траектория в результате сколь угодно малых ошибок становится непредсказуемой. Это проиллюстрировано на рис. 1 примером двух траекторий шара А, отличающихся малой угловой ошибкой начальных условий. Реальность природы в том, что в таком бильярде (или для многих взаимодействующих “шаров”) классический “образец детерминизма” в виде механических траекторий становится синонимом одной из самых быстро нарастающих неустойчивостей – максимальной непредсказуемости.
Неустойчивость классической механической траектории как результат взаимодействия многих элементов между собой и с границами областей движения давно и хорошо известна. Однако фактом являются многочисленные публикации о механической траектории как образце детерминизма и “вздохи” о том, что в этом концы с концами не сходятся. Это же проявляется по отношению к нервным системам и мозгу. В их описании стараются найти “траектории бильярдных шаров”. Но их там нет в силу запретов природы на навязываемые ей человеком определения детерминизма.
Аналогичное и с понятием противоположным детерминизму – о хаосе. Движение большого количества взаимодействующих “шаров” (например, молекул в идеальном газе) приводится всегда как образец хаоса. Опять это сопровождает парадокс. Например, в газе поведение единичной молекулы проследить и достоверно описать невозможно, что и понимается под словом – хаос. Однако макроскопические параметры объёма газа (давление, объём, температура, энтропия) определены настолько точно, что это было основным возражением при создании Л. Больцманом молекулярно-кинетической теории газов. Примеров детерминизма, возникающего на основе хаоса, можно привести много. Однако они психологически таковыми часто не считаются.
Как показал ещё Л. Больцман и подчёркивается с тех пор классиками науки и хорошими учебниками, максимальный хаос, возможный в данных условиях и запомненный как таковой, есть наиболее детерминированное состояние в природе. Не существует ничего более точного в природе, чем положение максимума этого хаоса, описываемого в терминах характеристики случайностей – энтропии. Сам факт существования детерминированного объекта материально является его воспроизводимой макроскопической упорядоченностью, которая одновременно есть запомненный максимум микроскопического хаоса составляющих его элементов. Однако энтропию, описывающую элементы-составляющие объекта, воспринимают исключительно как меру неопределённости. Это ошибка.
По определению, уже давно принятому в науке, информация есть мера устранённой неопределённости. Поэтому энтропия (как характеристика беспорядка, на основе которой произошло запоминание) есть одновременно мера информации, описывающей конкретные объекты природы и, в частности, нервные системы и мозг. Энтропия в неживой и живой природе есть физическая переменная – действие-энтропия-информация об объектах.
Какой именно вид будет иметь объект, который стал запомненным выражением хаоса составляющих его элементов – зависит от условий, ограничивающих случайное их поведение. Физическая переменная действие-энтропия-информация, выражаемая количеством, числом есть измеримая характеристика элементов, образующих объекты природы. Она описывает максимум вероятности состояний элементов, которые образуют объект. При большом количестве элементов системы острота этого максимума исключительно велика. Отклонения в поведении элементов системы от положенного для максимума действия-энтропии-информации (наиболее вероятного поведения как осреднения случайностей) имеют непредставимо малую вероятность.
Запомненный хаос, ограниченный конкретными условиями – это и есть все объекты природы и продукты рук человека. Они устойчивы – повторимы. Их существование самим своим фактом устраняет ту величину неопределённости, которую выражает энтропия составляющих их элементов. Когда объекты существуют (то есть повторимы, запомнены) этим неопределённость устранена, а энтропия их элементов стала информацией об объектах.
Объекты на всех уровнях иерархии энтропии-информации возникают в результате процесса синтеза информации. Цепочка: Случайности – Условия – Запоминание есть введенная в [1] – [9] конкретизация классического определения Г. Кастлером [11] понятия о синтезе информации как запоминании случайного выбора.
Самый высокий детерминизм в природе реализуется в виде запомненного осреднение случайностей в максимуме вероятности для действия-энтропии-информации при заданных условиях.
Это же относится к экстремумам действия-энтропии-информации, при динамических равновесиях, которые возникают как результат классически неравновесных поцессов. В этом случае существование объектов (теперь динамических) зависит не только от экстремумов самой действия-энтропии-информации, но и от экстремумов её изменений (производства энтропии и его возмущений).
Надо напомнить, что определение энтропии S в термодинамике, введенное Л. Больцманом, использует подсчёт числа возможных состояний системы при заданных их признаках и условиях:
, (1)
где K есть адиабатический инвариант системы. Этот термин ввёл П. Эренфест [12] позже работ Больцмана. Кстати, определение энтропии в виде (1) ввёл М. Планк, как и название – постоянная Больцмана.
Энтропия как та же самая переменная определена Дж. Гиббсом на основе вероятностей состояний системы в виде:
. (2)
Такое определение равноправно с больцмановским. Однако числа состояний больше единицы, а вероятности состояний – меньше единицы. Поэтому их логарифмы имеют противоположный знак. Для того, чтобы это устранить, при определении энтропии (2) с помощью вероятности состояний вводится знак минус.
Энтропия – положительно определённая адитивная переменная, поэтому выбор нуля для неё произволен. Поэтому в отдельных случаях её можно использовать со знаком минус.
Энтропия на основе числа возможных состояний в (1) или их вероятности в (2) для элементов в составе системы с разными признаками и свойствами может быть различной. Определение энтропии должно это учитывать. Например, в форме (2) для этого надо ввести по группам элементов i соответствующие им вероятности . Поэтому определения энтропии (1), (2) без изменения принципов получают формы, детализирующие условия задач, в частности, вид статистики.
В природе синтез информации в первую очередь участвует в существовании энтропии как физической переменной. Схема рис. 2 подчёркивает три класса возникающих при этом задач: А – синтез информации о виде или , в частности, о виде статистики в определении энтропии (1), (2); B – синтез информации о величине размерного множителя K в определении энтропии (1), (2): C – установление связи энергии, числа элементов системы и количества информации в ней в виде синтеза информации на основе условий нормировки энтропии 1, [8] при заданных K и или . Классы процессов синтеза информации рис. 2 замыкают определение энтропии (1), (2) как физической переменной. Они должны иметь форму реальных физических процессов.
Элементы системы подчиняются индивидуальным законам взаимодействий. Этим задан вид статистики A, определяющей форму функций или . Признаки и свойства элементов системы, законы их взаимодействий задают возможность разных постоянных K. Должен существовать процесс B, приводящий к однозначному определению адиабатического инварианта K в функции условий задачи. Наконец, для заданных K и или определение энтропии (1), (2) должно быть дополнено классическими ещё со времён Больцмана и Гиббса условиями нормировки энтропии. Это есть вид синтеза информации, обозначенный на рис. 2 буквой С.
Законы природы всегда содержат обратные связи, зависящие от окружающей среды и её изменений в результате происходящих в ней процессов. Наиболее общий вид таких обратных связей – указанные на рис. 2 классы процессов синтеза информации.
Последовательные процессы A, B, C, задающие вид статистики, адиабатический инвариант системы, нормировку энтропии, есть составляющие определения энтропии (1), (2). Когда в термодинамике говорят об открытых системах, то их определение ограничивается системами с заданными или и величиной K. Важнейшими классами открытых систем являются такие, в которых воздействие извне формирует K и или, а также определяет нормировку энтропии. Известный метод максимальной энтропии Е. Джейнса [13] и его развитие Г. Хакеном [14] есть обощение больцмановской нормировки энтропии в задачах теории информации.