Пороги как составляющая детерминизма природы

К оглавлению1 2 3 4 5 6 7 8 9 

 Детерминизм остроты экстремумов действия-энтропии-информа­ции и её про­­­из­водства со­про­вож­дает­ся одной особенностью природы.

Любой реальный процесс в природе конечен. Он имеет начало или человек может рассматривать его, устанавливая условное начало сам. В математике это называют заданием на­чаль­ных условий. И в при­ро­де, и для человека в начальных условиях не­избежно присутствуют малые ошиб­­ки. Классическая механическая траектория, как было под­чёркнуто выше, отвечает на них своей непредсказуемостью. Однако понятие о де­тер­­­­ми­низме означает противоположное – достоверную пред­сказуе­мость. Из обиходных примеров понятно, что малые ошиб­ки начальных условий гарантировано станут несущественными, если для них су­ще­ствуют по­­роги. Если их не превышать, то ко­нечный ре­зультат от ошибок зависеть не будет – останется в пределах по­рогов.

Например, сегодня телефонная связь цифровая. Это значит, что ам­п­литуда сиг­на­ла, выражающего речь, передаётся с помощью им­пуль­сов как последовательность соответ­ст­ву­ющих ей цифр. Для импуль­сов су­ще­ст­вуют пороги. В результате либо сигнал доходит абсолютно неиска­жён­ным, независимо от расстояний, либо его нет.

Для природы существуют свои пороги. Их выражает минимальный элемент, совместно описывающий движение и положение N объектов в спе­ци­фическом пространстве, которое называют – фазовым прост­ранст­вом обобщённых ко­ор­динат qj и импульсов pj объектов. Индекс j  указывает номер рас­сматриваемого одного из N элементов системы.

Как впервые введено в [8], сущест­вует минимальный конечный элемент в фазо­вом пространстве, имеющий величину:

,                                              (3)

где константа в правой части имеет размерность и смысл действия как переменной механики. Как впервые показано в [8], действие в механике является энтропией-информацией. Условие (3) введено в [8] как адиабатическое уравнение состояния при определении энергии в механике. Адиабатический инвариант в правой части (3) входит в определения энтропии (1) или (2). Поэтому эти выражения вводят фи­зи­ческую переменную:   действие-энтропия-информация.  

Это утверждает, что объекты природы состоят не из бесконечно ма­­лых (в математическом смысле) идеализированных материальных точек (из нематериальной предельной “пустоты” бесконечно малого объекта), а из конечных деформир­уемых элементов-“мешков”, со­х­ра­няющих объём. Они не­­разрывно объединяют движение и поло­же­­ние. Размер та­ких “мешков” устанавливает порог совмест­ных из­­­­мене­ний в них движе­ния и положения, которые не влияют на ре­зуль­­­таты. Это участвует в детерминизме природы, в част­ности, в тех случаях, ког­да рассматриваются непре­рыв­ные тра­ек­тории.

Примером константы в правой части (3) (адиабатического инвари­ан­та) яв­ля­ются известные постоянные Планка h и Больцмана kB . Первая из них работает на внутриатом­ном уров­не. Постоянная Больц­мана дей­ст­­ву­ет на уровне тепловых (молеку­ляр­но ки­нетических) про­­цессов. Для уровня “элементарных частиц” или гра­ви­тации эти пос­то­ян­ные свои, отличные по величине от постоян­ной Планка, например, постоянная тонкой структуры [8]. На уров­не крупных таксономичес­ких градаций жизни для каж­­дой из них суще­ст­вует своё уравнение состояния при определении энергии и своя постоянная в его пра­вой части.  Это впервые последовательно введе­но в [8], [9]. Здесь опущены пояснения о том, что в термодинамике уравнение состояния связывает сами переменные задачи, а в механике – только их прира­ще­ния. Опущено и то (см. [8]), что введение уравнения состояния для конечных приращений и есть впервые названное в [8] существо кван­товой механики.

В физике известно эмпирическое соотношение, похожее на (3). Его  называют соотношением неопределённости Гейзенберга:

.                                                 (4)

Символ  в (4) обозначает среднеквадратичные от­к­ло­не­ния, то есть слу­чайный разброс величины импульсов и координат. Соотно­ше­ние неопределённости трактуют (на­при­­мер, И. Пригожин [13]) как ко­нец определённости в науке. Это заблуждение.

Реально соотношение неопределённости в эмпирической форме (4) [16] приближённо заменяет строгое соотношение (3), которое описы­вает детерминизм природы как существование порогов для случай­нос­тей, основанных на первых принципах [8], [9]. Но при этом в сов­ременной физике волевым обра­зом принимается, что постоянная Планка есть единственный вид констан­ты в приближённом соотно­ше­нии неопре­де­лённости вида (4). Это заведомо не так, что показано в [8]. Для раз­ных классов процессов и объектов природы существуют свои пороги. Их можно называть неопределённостью, но это есть неопределён­ность как следствие нереализуемости в строгом виде общеприня­­той идеализации математической точки. Со­отно­ше­ни­ем (3) зада­ны конечные пороги ошибок, не вли­­­­яющих на результат. Ими гаран­тирован детерминизм при­ро­ды по отношению к ошиб­­кам.

Статическая и/или динамическая устойчивость – синоним существования объектов и процессов природы

Объекты и процессы природы существуют. Это означает, что они воспроизводимы – в одинаковых условиях обладают одинаковыми ха­рак­теристиками в пределах их порогов. В тер­минах математики этому эквивалентна устойчивость объектов или процессов. Она опи­сы­вает­ся критериями А. Ляпунова. В них используются экст­ре­му­­мы функ­ций Ляпунова и их комби­на­ции. Действие-энтропия-инфор­мация есть функция Ляпунова.

Для широкого класса объектов при­ро­ды их существование опре­де­ляется устойчивостью статического равновесия при максимуме от­ве­­ча­ющего им действия-энтропии-информации. Не менее широкий класс про­цес­сов и объектов имеет причиной существования дина­ми­ческое равно­ве­сие, которое определяется знаками комбинаций экс­т­ре­­мумов дейст­вия-энтропии-информации и её производства во вре­ме­ни. В част­ности, это объекты и процессы в открытых системах, ко­то­рые возникают в результате са­мо­организации – понятия распрост­ра­нён­­ного в современной науке.

Однако существуют объекты и процессы, для которых статическая или дина­ми­ческая устойчивость зависит от экстремумов энергии. По­э­тому в науке их стараются идеали­зи­ровать так, что­бы использовать энт­ро­пий­ные и энергетические крите­рии раз­дель­но. Как показано в [9] необходимости в этом нет – энт­ро­пия выражается в ви­де функции комплексного пе­ре­мен­ного, для которой мнимая ось описывает клас­си­ческую энтропию (дейст­вие-энтропию-информа­цию), а действи­тель­­ная связана с энер­ги­­ей (се­мантической информацией).

Помимо энтропии и энергии фундаментальной переменной объек­тов и процессов является температура. В задачах устойчивости она долж­на быть согласно [8], [9] определена не в градусах Цельсия или Кельвина, а в натуральных единицах, каковые выражаются обрат­ным вре­менем. Тогда существование объектов и процессов природы мож­­но ус­та­но­­вить, используя общепринятый в теории автома­ти­чес­кого ре­­гули­ро­­вания анализ устойчивости в комплексной плоскости.

В цепочке случайности – условия – запо­ми­нание, реализующей синтез информации, устойчивость по пояснённым выше причинам есть синоним запоминания. Поэтому, не забывая о том, что в полном виде устойчивость определяется в плоскости функций комплексного пе­ре­менного, необходимо ввести и проанализировать [1], [2], [8], [9] свойство роста энтропии – иерархичность. Синтез информации как запоминание случайного выбора в [11] относится к мнимой составля­ю­щей полной энтропии, рассматриваемой изо­лированно в терминах функ­ции действительного переменного.

Закон иерархического роста энтропии-информации

Объек­ты и процессы природы конкретно определяются признака­ми, которые разные для составляющих их элементов. Из них наибо­лее су­щест­венную часть опи­сы­вает зави­ся­щее от них действие-энтро­пия-ин­формация (на­поминаю о при­ме­ча­нии 1). Это позволяет сфор­му­лировать [1], [2], [8], [9] закон иерархичност роста энтропии.

На каждой ступени роста энтропии её можно представить в виде:

Sk   =  Sk,g  + Sk,s ,                                       (5)

в которой первое слагаемое является информацией об адиаба­ти­чес­ком инварианте системы (ключевых признаках), а второе опреде­лено процессами самоорганизации на основе элементов, свойства ко­торых установлены первым слагаемым.

Иерархическую энтропию-информацию можно описать рядом:

Sn  = S0 + S1| 0 + ... + Sk| 0,1,...,(k-1) + ... + Sn| 0,1,...,(n-1) ,       (6)                    

в котором индексы, отделённые чертой, обозначают условия на пре­ды­­ду­щих ступенях иерархии.

Энтропия при дополнительных условиях подчиняется требованию:

Sk|(k-1)    Sk .                                         (7)

Поэтому иерархический рост энтропии-информации сопровож­дает­ся уменьшением диапазона её изменений по мере роста номеров ступеней (членов ряда (6)). Это про­иллюстрировано на рис. 3 и объяс­ня­ет, в частности, пара­докс кажу­ще­го­ся роста упоря­до­чен­но­с­­ти по мере эво­люции жиз­ни и ра­­зу­ма – эволю­ция это есть рост энт­ропии-информа­ции, но наблюдаемыми че­ло­ве­ком яв­ля­ют­ся преимущест­вен­но послед­ние ступени в этой иерар­хии. В их пределах изменения энт­ропии-ин­формации малы откуда и возникает кажущийся эффект роста упо­ря­­доченности. Осо­бен­но он ве­лик для той ступени иерархии, эле­мен­том-участ­ником ко­торой является сам человек и его разум.

Иерархичность роста беспорядка, количественного опи­сывае­мо­го энтро­пи­ей-информацией, определяет в природе классы порогов оши­бок, то есть пос­то­янные в правой части (3).

Равновесия (статические или ди­на­­мические), которые отражают чле­ны ряда (6), сочетают максимум бес­порядка для элементов систе­мы с детерминизмом объектов, ко­то­рые они образуют. Статические равновесия в этом прочнее дина­ми­чес­­ких, но объектами природы являются результаты их обоих. Воз­ни­ка­ет па­радокс – равновесиями являются все объекты природы, но наблю­да­е­мым главным законом природы является её развитие, то есть не­воз­мож­­ность вечного рав­новесия. Это противоречие устранил введен­ный в [1], [2], [8], [9] прин­цип максимума производства действия-энт­ропии-информа­ции (мак­симума способности к превращениям). Сис­те­ма из за­данных эле­мен­тов при­хо­дит к равновесию, каковое вы­ра­жа­ют объек­ты мак­ро­ско­пи­ческие по отношению к составляющим их эле­мен­там – тупи­ки рав­но­ве­сия. В оп­ре­делённых условиях эти объек­ты становятся элемен­та­ми иерархи­чес­ки новой сис­темы. Примитив­ный при­мер – пес­чин­ки, каж­­дую из ко­торых (как объект) создал атом­ный, а потом микро­крис­тал­ли­чес­­кий хаос. Но они есть элемент сис­темы (пес­ка на пляже), ко­то­рый об­ра­зу­ет дюны – новые объекты.

Принцип максимума производ­ст­ва энтропии [1], [2], [8], [9] в виде критериев устойчивости для адиабатического инварианта си­с­те­мы, опи­сы­ва­ет разру­ше­ние тупиков рав­нове­сия и фор­ми­рование вели­чины ади­а­батичес­ких инвариантов. Он вво­дит приз­наки элементов, об­­ра­зу­ю­­щих иерар­хи­чески стар­­­шую систе­му. Принцип максимума про­из­­вод­­ства энт­­ро­пии гарантирует разви­тие в виде иерар­хии роста действия-энтро­пии-информации. Он рабо­тает в форме про­цес­са син­те­за инфор­мации (В на рис. 2).

Объекты природы, возникаю­щие на основе хаоса составляющих их элементов, обрывают этот хаос тем, что становятся теми элемен­та­ми, хаос которых создаёт иерархи­чески следующий уровень объек­тов. Они в свою очередь приводят к новому хаосу и новым объектам на его основе. Каждый уровень та­кой иерархии роста действия-энтро­пии-ин­фор­­ма­­ции имеет свою по величине “постоянную Планка” в правой части (3). По своей природе и раз­мер­ности она есть единица измерения пе­ременной механики – действия – для данных элементов системы (дан­ного уровня иерархии). Поэтому классическая энтропия есть дейст­вие-энтропия-информация.

При­рода с помощью этой иерархии на каждой её ступени может за­бывать прош­лое. Но одновременно оно неустранимо сохраняется в ней в виде свойств элементов, образующих объекты на дан­ной сту­пени. Это и есть прог­рессивная эволюция. В таком виде она “на­чи­нается” на уров­не об­ра­зования Вселенной, “элементарных частиц” с их свойствами, продол­жает­ся воз­никновением таких её объек­тов, как галактики, звёзды и их планеты. Жизнь, человек, его ра­зум и со­ци­аль­ные системы есть старшие ступени в этой иерархии.

Определение – прогрессив­ная – отражает тот факт, что на каждом уров­не иерархии дей­ст­­­вуют свои условия, кото­рых являются допол­ни­­­тель­ными по отношению к усло­ви­ям на пре­дыдущих уровнях. Как бы­ло пояснено выше (7), это уменьшает в гео­метрической прогрессии (экс­­поненциально) высоту ступе­ней иерархии (воз­мож­ный диа­пазон из­ме­нения количеств информации в них) со всеми наблюдаемыми че­ло­веком последствиями в виде кажу­щейся упорядоченности. Этим оп­ре­­деление – про­г­­­­рес­сивная – полу­ча­ет математический смысл, не тре­бую­щий вве­дения и толкования це­лей прогресса. Такие цели есть ка­жущийся эффект. 

На каждом уровне иерар­хии рос­та действия-энтропии-инфор­мации детер­ми­низм вы­ра­­жается остротой экст­­ре­му­мов энт­ропии и её про­из­вод­ства для иерархичес­ки каждый раз новых элемен­тов. Неоп­ре­де­­лён­ность преды­ду­щего хао­са устране­на воз­­ник­новением новых объек­­­­­тов. По­этому энт­ропия, описыва­ю­щая пре­ды­ду­щий хаос, стано­вит­ся ин­фор­­мацией о новых объек­тах. На каж­дом их этих уровней су­ще­ст­ву­ют свои, за­дан­­ные первы­ми прин­ципами (3), по­роги оши­бок, обес­­­пе­­чи­­ва­ю­щие вы­пол­нение вто­рой сос­тав­­­­ляющей де­­терминизма про­­г­­рес­­сив­ной эволюции.

Возвращаясь к более полному и стро­гому виду, иерар­хию роста энт­­ропии-ин­фор­­ма­­ции как функ­ции ком­п­лексного переменного мож­­но изобразить как на рис. 4.  Ряд (6) описывает иерар­хию изме­не­­ния её мнимой составляющей. Дейст­ви­тельная сос­тав­ля­ю­щая энт­ро­­пии на всех уровнях иерархии за­­висит от энер­гии вза­­имо­действий эле­­ментов си­с­­те­мы. “Тол­щина” изо­­бра­жён­ных на рис. 4 плос­костей на­по­минает о диа­па­зоне внутри по­­рогов, заданных адиа­ба­тическим ин­ва­риантом данного уровня иерар­хии, вхо­дя­щим в пра­вую часть (3), и об окрест­нос­ти точек экстремума энтропии-ин­фор­ма­ции.

Новые плоскости синтеза информа­ции, объекты и процессы на них воз­ни­кают на основе запоминания, описываемого устойчивостью. Ес­ли ус­ло­вия устойчивости не вы­пол­няются, то нет за­поминания – хаос ос­таётся толь­ко таковым. В ко­ор­ди­натах рис. 4 устой­чивость оце­­нивается с од­нов­ременным учё­­том как энер­гети­чес­ких, так и ин­фор­мационных критери­ев. Энтро­пия (дей­ст­вие-инфор­ма­ция) есть из­ме­римая в экспе­ри­ментах фи­зи­чес­кая пе­ре­мен­ная. Для ус­той­чи­вых (запомненных) состоя­ний она матери­а­льно выражает коли­че­ст­­во ин­фор­ма­ции о макро­ско­­пи­ческом объекте – объё­ме газа, живой клет­ке, работе нерв­­­ной системы мура­вья или мозга че­ловека. Темпе­ра­тура в явном виде в координатах рис. 4 не ото­б­ра­­же­на.

Следует отметить, что наиболее близким к изложенному выше яв­ляется подход И.С. Моросанова [17].

 Детерминизм остроты экстремумов действия-энтропии-информа­ции и её про­­­из­водства со­про­вож­дает­ся одной особенностью природы.

Любой реальный процесс в природе конечен. Он имеет начало или человек может рассматривать его, устанавливая условное начало сам. В математике это называют заданием на­чаль­ных условий. И в при­ро­де, и для человека в начальных условиях не­избежно присутствуют малые ошиб­­ки. Классическая механическая траектория, как было под­чёркнуто выше, отвечает на них своей непредсказуемостью. Однако понятие о де­тер­­­­ми­низме означает противоположное – достоверную пред­сказуе­мость. Из обиходных примеров понятно, что малые ошиб­ки начальных условий гарантировано станут несущественными, если для них су­ще­ствуют по­­роги. Если их не превышать, то ко­нечный ре­зультат от ошибок зависеть не будет – останется в пределах по­рогов.

Например, сегодня телефонная связь цифровая. Это значит, что ам­п­литуда сиг­на­ла, выражающего речь, передаётся с помощью им­пуль­сов как последовательность соответ­ст­ву­ющих ей цифр. Для импуль­сов су­ще­ст­вуют пороги. В результате либо сигнал доходит абсолютно неиска­жён­ным, независимо от расстояний, либо его нет.

Для природы существуют свои пороги. Их выражает минимальный элемент, совместно описывающий движение и положение N объектов в спе­ци­фическом пространстве, которое называют – фазовым прост­ранст­вом обобщённых ко­ор­динат qj и импульсов pj объектов. Индекс j  указывает номер рас­сматриваемого одного из N элементов системы.

Как впервые введено в [8], сущест­вует минимальный конечный элемент в фазо­вом пространстве, имеющий величину:

,                                              (3)

где константа в правой части имеет размерность и смысл действия как переменной механики. Как впервые показано в [8], действие в механике является энтропией-информацией. Условие (3) введено в [8] как адиабатическое уравнение состояния при определении энергии в механике. Адиабатический инвариант в правой части (3) входит в определения энтропии (1) или (2). Поэтому эти выражения вводят фи­зи­ческую переменную:   действие-энтропия-информация.  

Это утверждает, что объекты природы состоят не из бесконечно ма­­лых (в математическом смысле) идеализированных материальных точек (из нематериальной предельной “пустоты” бесконечно малого объекта), а из конечных деформир­уемых элементов-“мешков”, со­х­ра­няющих объём. Они не­­разрывно объединяют движение и поло­же­­ние. Размер та­ких “мешков” устанавливает порог совмест­ных из­­­­мене­ний в них движе­ния и положения, которые не влияют на ре­зуль­­­таты. Это участвует в детерминизме природы, в част­ности, в тех случаях, ког­да рассматриваются непре­рыв­ные тра­ек­тории.

Примером константы в правой части (3) (адиабатического инвари­ан­та) яв­ля­ются известные постоянные Планка h и Больцмана kB . Первая из них работает на внутриатом­ном уров­не. Постоянная Больц­мана дей­ст­­ву­ет на уровне тепловых (молеку­ляр­но ки­нетических) про­­цессов. Для уровня “элементарных частиц” или гра­ви­тации эти пос­то­ян­ные свои, отличные по величине от постоян­ной Планка, например, постоянная тонкой структуры [8]. На уров­не крупных таксономичес­ких градаций жизни для каж­­дой из них суще­ст­вует своё уравнение состояния при определении энергии и своя постоянная в его пра­вой части.  Это впервые последовательно введе­но в [8], [9]. Здесь опущены пояснения о том, что в термодинамике уравнение состояния связывает сами переменные задачи, а в механике – только их прира­ще­ния. Опущено и то (см. [8]), что введение уравнения состояния для конечных приращений и есть впервые названное в [8] существо кван­товой механики.

В физике известно эмпирическое соотношение, похожее на (3). Его  называют соотношением неопределённости Гейзенберга:

.                                                 (4)

Символ  в (4) обозначает среднеквадратичные от­к­ло­не­ния, то есть слу­чайный разброс величины импульсов и координат. Соотно­ше­ние неопределённости трактуют (на­при­­мер, И. Пригожин [13]) как ко­нец определённости в науке. Это заблуждение.

Реально соотношение неопределённости в эмпирической форме (4) [16] приближённо заменяет строгое соотношение (3), которое описы­вает детерминизм природы как существование порогов для случай­нос­тей, основанных на первых принципах [8], [9]. Но при этом в сов­ременной физике волевым обра­зом принимается, что постоянная Планка есть единственный вид констан­ты в приближённом соотно­ше­нии неопре­де­лённости вида (4). Это заведомо не так, что показано в [8]. Для раз­ных классов процессов и объектов природы существуют свои пороги. Их можно называть неопределённостью, но это есть неопределён­ность как следствие нереализуемости в строгом виде общеприня­­той идеализации математической точки. Со­отно­ше­ни­ем (3) зада­ны конечные пороги ошибок, не вли­­­­яющих на результат. Ими гаран­тирован детерминизм при­ро­ды по отношению к ошиб­­кам.

Статическая и/или динамическая устойчивость – синоним существования объектов и процессов природы

Объекты и процессы природы существуют. Это означает, что они воспроизводимы – в одинаковых условиях обладают одинаковыми ха­рак­теристиками в пределах их порогов. В тер­минах математики этому эквивалентна устойчивость объектов или процессов. Она опи­сы­вает­ся критериями А. Ляпунова. В них используются экст­ре­му­­мы функ­ций Ляпунова и их комби­на­ции. Действие-энтропия-инфор­мация есть функция Ляпунова.

Для широкого класса объектов при­ро­ды их существование опре­де­ляется устойчивостью статического равновесия при максимуме от­ве­­ча­ющего им действия-энтропии-информации. Не менее широкий класс про­цес­сов и объектов имеет причиной существования дина­ми­ческое равно­ве­сие, которое определяется знаками комбинаций экс­т­ре­­мумов дейст­вия-энтропии-информации и её производства во вре­ме­ни. В част­ности, это объекты и процессы в открытых системах, ко­то­рые возникают в результате са­мо­организации – понятия распрост­ра­нён­­ного в современной науке.

Однако существуют объекты и процессы, для которых статическая или дина­ми­ческая устойчивость зависит от экстремумов энергии. По­э­тому в науке их стараются идеали­зи­ровать так, что­бы использовать энт­ро­пий­ные и энергетические крите­рии раз­дель­но. Как показано в [9] необходимости в этом нет – энт­ро­пия выражается в ви­де функции комплексного пе­ре­мен­ного, для которой мнимая ось описывает клас­си­ческую энтропию (дейст­вие-энтропию-информа­цию), а действи­тель­­ная связана с энер­ги­­ей (се­мантической информацией).

Помимо энтропии и энергии фундаментальной переменной объек­тов и процессов является температура. В задачах устойчивости она долж­на быть согласно [8], [9] определена не в градусах Цельсия или Кельвина, а в натуральных единицах, каковые выражаются обрат­ным вре­менем. Тогда существование объектов и процессов природы мож­­но ус­та­но­­вить, используя общепринятый в теории автома­ти­чес­кого ре­­гули­ро­­вания анализ устойчивости в комплексной плоскости.

В цепочке случайности – условия – запо­ми­нание, реализующей синтез информации, устойчивость по пояснённым выше причинам есть синоним запоминания. Поэтому, не забывая о том, что в полном виде устойчивость определяется в плоскости функций комплексного пе­ре­менного, необходимо ввести и проанализировать [1], [2], [8], [9] свойство роста энтропии – иерархичность. Синтез информации как запоминание случайного выбора в [11] относится к мнимой составля­ю­щей полной энтропии, рассматриваемой изо­лированно в терминах функ­ции действительного переменного.

Закон иерархического роста энтропии-информации

Объек­ты и процессы природы конкретно определяются признака­ми, которые разные для составляющих их элементов. Из них наибо­лее су­щест­венную часть опи­сы­вает зави­ся­щее от них действие-энтро­пия-ин­формация (на­поминаю о при­ме­ча­нии 1). Это позволяет сфор­му­лировать [1], [2], [8], [9] закон иерархичност роста энтропии.

На каждой ступени роста энтропии её можно представить в виде:

Sk   =  Sk,g  + Sk,s ,                                       (5)

в которой первое слагаемое является информацией об адиаба­ти­чес­ком инварианте системы (ключевых признаках), а второе опреде­лено процессами самоорганизации на основе элементов, свойства ко­торых установлены первым слагаемым.

Иерархическую энтропию-информацию можно описать рядом:

Sn  = S0 + S1| 0 + ... + Sk| 0,1,...,(k-1) + ... + Sn| 0,1,...,(n-1) ,       (6)                    

в котором индексы, отделённые чертой, обозначают условия на пре­ды­­ду­щих ступенях иерархии.

Энтропия при дополнительных условиях подчиняется требованию:

Sk|(k-1)    Sk .                                         (7)

Поэтому иерархический рост энтропии-информации сопровож­дает­ся уменьшением диапазона её изменений по мере роста номеров ступеней (членов ряда (6)). Это про­иллюстрировано на рис. 3 и объяс­ня­ет, в частности, пара­докс кажу­ще­го­ся роста упоря­до­чен­но­с­­ти по мере эво­люции жиз­ни и ра­­зу­ма – эволю­ция это есть рост энт­ропии-информа­ции, но наблюдаемыми че­ло­ве­ком яв­ля­ют­ся преимущест­вен­но послед­ние ступени в этой иерар­хии. В их пределах изменения энт­ропии-ин­формации малы откуда и возникает кажущийся эффект роста упо­ря­­доченности. Осо­бен­но он ве­лик для той ступени иерархии, эле­мен­том-участ­ником ко­торой является сам человек и его разум.

Иерархичность роста беспорядка, количественного опи­сывае­мо­го энтро­пи­ей-информацией, определяет в природе классы порогов оши­бок, то есть пос­то­янные в правой части (3).

Равновесия (статические или ди­на­­мические), которые отражают чле­ны ряда (6), сочетают максимум бес­порядка для элементов систе­мы с детерминизмом объектов, ко­то­рые они образуют. Статические равновесия в этом прочнее дина­ми­чес­­ких, но объектами природы являются результаты их обоих. Воз­ни­ка­ет па­радокс – равновесиями являются все объекты природы, но наблю­да­е­мым главным законом природы является её развитие, то есть не­воз­мож­­ность вечного рав­новесия. Это противоречие устранил введен­ный в [1], [2], [8], [9] прин­цип максимума производства действия-энт­ропии-информа­ции (мак­симума способности к превращениям). Сис­те­ма из за­данных эле­мен­тов при­хо­дит к равновесию, каковое вы­ра­жа­ют объек­ты мак­ро­ско­пи­ческие по отношению к составляющим их эле­мен­там – тупи­ки рав­но­ве­сия. В оп­ре­делённых условиях эти объек­ты становятся элемен­та­ми иерархи­чес­ки новой сис­темы. Примитив­ный при­мер – пес­чин­ки, каж­­дую из ко­торых (как объект) создал атом­ный, а потом микро­крис­тал­ли­чес­­кий хаос. Но они есть элемент сис­темы (пес­ка на пляже), ко­то­рый об­ра­зу­ет дюны – новые объекты.

Принцип максимума производ­ст­ва энтропии [1], [2], [8], [9] в виде критериев устойчивости для адиабатического инварианта си­с­те­мы, опи­сы­ва­ет разру­ше­ние тупиков рав­нове­сия и фор­ми­рование вели­чины ади­а­батичес­ких инвариантов. Он вво­дит приз­наки элементов, об­­ра­зу­ю­­щих иерар­хи­чески стар­­­шую систе­му. Принцип максимума про­из­­вод­­ства энт­­ро­пии гарантирует разви­тие в виде иерар­хии роста действия-энтро­пии-информации. Он рабо­тает в форме про­цес­са син­те­за инфор­мации (В на рис. 2).

Объекты природы, возникаю­щие на основе хаоса составляющих их элементов, обрывают этот хаос тем, что становятся теми элемен­та­ми, хаос которых создаёт иерархи­чески следующий уровень объек­тов. Они в свою очередь приводят к новому хаосу и новым объектам на его основе. Каждый уровень та­кой иерархии роста действия-энтро­пии-ин­фор­­ма­­ции имеет свою по величине “постоянную Планка” в правой части (3). По своей природе и раз­мер­ности она есть единица измерения пе­ременной механики – действия – для данных элементов системы (дан­ного уровня иерархии). Поэтому классическая энтропия есть дейст­вие-энтропия-информация.

При­рода с помощью этой иерархии на каждой её ступени может за­бывать прош­лое. Но одновременно оно неустранимо сохраняется в ней в виде свойств элементов, образующих объекты на дан­ной сту­пени. Это и есть прог­рессивная эволюция. В таком виде она “на­чи­нается” на уров­не об­ра­зования Вселенной, “элементарных частиц” с их свойствами, продол­жает­ся воз­никновением таких её объек­тов, как галактики, звёзды и их планеты. Жизнь, человек, его ра­зум и со­ци­аль­ные системы есть старшие ступени в этой иерархии.

Определение – прогрессив­ная – отражает тот факт, что на каждом уров­не иерархии дей­ст­­­вуют свои условия, кото­рых являются допол­ни­­­тель­ными по отношению к усло­ви­ям на пре­дыдущих уровнях. Как бы­ло пояснено выше (7), это уменьшает в гео­метрической прогрессии (экс­­поненциально) высоту ступе­ней иерархии (воз­мож­ный диа­пазон из­ме­нения количеств информации в них) со всеми наблюдаемыми че­ло­веком последствиями в виде кажу­щейся упорядоченности. Этим оп­ре­­деление – про­г­­­­рес­сивная – полу­ча­ет математический смысл, не тре­бую­щий вве­дения и толкования це­лей прогресса. Такие цели есть ка­жущийся эффект. 

На каждом уровне иерар­хии рос­та действия-энтропии-инфор­мации детер­ми­низм вы­ра­­жается остротой экст­­ре­му­мов энт­ропии и её про­из­вод­ства для иерархичес­ки каждый раз новых элемен­тов. Неоп­ре­де­­лён­ность преды­ду­щего хао­са устране­на воз­­ник­новением новых объек­­­­­тов. По­этому энт­ропия, описыва­ю­щая пре­ды­ду­щий хаос, стано­вит­ся ин­фор­­мацией о новых объек­тах. На каж­дом их этих уровней су­ще­ст­ву­ют свои, за­дан­­ные первы­ми прин­ципами (3), по­роги оши­бок, обес­­­пе­­чи­­ва­ю­щие вы­пол­нение вто­рой сос­тав­­­­ляющей де­­терминизма про­­г­­рес­­сив­ной эволюции.

Возвращаясь к более полному и стро­гому виду, иерар­хию роста энт­­ропии-ин­фор­­ма­­ции как функ­ции ком­п­лексного переменного мож­­но изобразить как на рис. 4.  Ряд (6) описывает иерар­хию изме­не­­ния её мнимой составляющей. Дейст­ви­тельная сос­тав­ля­ю­щая энт­ро­­пии на всех уровнях иерархии за­­висит от энер­гии вза­­имо­действий эле­­ментов си­с­­те­мы. “Тол­щина” изо­­бра­жён­ных на рис. 4 плос­костей на­по­минает о диа­па­зоне внутри по­­рогов, заданных адиа­ба­тическим ин­ва­риантом данного уровня иерар­хии, вхо­дя­щим в пра­вую часть (3), и об окрест­нос­ти точек экстремума энтропии-ин­фор­ма­ции.

Новые плоскости синтеза информа­ции, объекты и процессы на них воз­ни­кают на основе запоминания, описываемого устойчивостью. Ес­ли ус­ло­вия устойчивости не вы­пол­няются, то нет за­поминания – хаос ос­таётся толь­ко таковым. В ко­ор­ди­натах рис. 4 устой­чивость оце­­нивается с од­нов­ременным учё­­том как энер­гети­чес­ких, так и ин­фор­мационных критери­ев. Энтро­пия (дей­ст­вие-инфор­ма­ция) есть из­ме­римая в экспе­ри­ментах фи­зи­чес­кая пе­ре­мен­ная. Для ус­той­чи­вых (запомненных) состоя­ний она матери­а­льно выражает коли­че­ст­­во ин­фор­ма­ции о макро­ско­­пи­ческом объекте – объё­ме газа, живой клет­ке, работе нерв­­­ной системы мура­вья или мозга че­ловека. Темпе­ра­тура в явном виде в координатах рис. 4 не ото­б­ра­­же­на.

Следует отметить, что наиболее близким к изложенному выше яв­ляется подход И.С. Моросанова [17].