Алескер Марк : другие произведения.

О хаосе и порядке

Самиздат: [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Обзоры] [Помощь|Техвопросы]
Ссылки:


 Ваша оценка:

Марк Алескер

 

О ХАОСЕ И ПОРЯДКЕ

/ Глава из книги "Информация и время в макромире"/


Мы уже неоднократно отмечали расплывчатость и неоднозначность понятий порядка и хаоса

Илья Пригожин, Изабелла Стенгерс

 

Аннотация

В работе рассмотрены основные принципы, на которых базируются разные представления о хаосе и порядке.
Проведен анализ физических основ существования в некоторой системе хаоса или порядка, позволивший в значительной степени устранить 'расплывчатость и неоднозначность понятий порядка и хаоса'.

 


  1. Термодинамическая энтропия
  2. Термодинамический хаос
  3. Динамический хаос
  4. Информационный хаос
  5. Негэнтропия Бриллюэна
  6. Не много ли модификаций информации?
  7. Итоги
  8. Литература

Обычно, следуя Винеру (1894-1964), полагают, что информация характеризует меру порядка, а энтропия - меру хаоса. "Как количество информации в системе есть мера организованности системы, точно также энтропия системы есть мера дезорганизованности системы" - говорит Винер [1].

Из утверждения Винера следует, что в организованной системе много информации и мало энтропии (в дезорганизованной - наоборот). Но согласно Шеннону (1916-2001) энтропия источника информации есть величина, которая измеряет "как много информации создается" источником ([2], с. 259).

Возникает, как будто бы, противоречие. С одной стороны, в организованной системе, согласно Винеру, много информации, с другой стороны, от такой системы много информации не получить, потому что в системе мало энтропии, а ведь именно она, согласно Шеннону, определяет, как много информации можно от системы получить.

По-видимому, это противоречие есть результат разного смысла, вкладываемого цитируемыми авторами в слова "энтропия", "информация", "хаос" и пр. Поэтому следует подробнее разобраться в этих терминах, и, прежде всего, что есть хаос и связан ли он с информацией, которую можно от системы получить. (До подробного рассмотрения понятия информации в других главах, в этой главе представление об этом понятии остается в значительной мере интуитивным).

Предварительно, в связи с необходимостью употребления в дальнейшем терминов, используемых в термодинамике и механике, приведем по этим терминам минимальную справку, чтение которой в случае знакомства с предметом можно опустить.

1. Термодинамика изучает тепловые, химические и пр. процессы, связанные с изменением (сохранением) внутренней энергии в термодинамических системах, - газах, жидкостях, твердых телах.
При этом используют два подхода. Макроскопический подход (эмпирическая термодинамика) описывает связь между физическими величинами (объем, давление, температура и т. д.), наблюдаемыми экспериментально. Микроскопический подход (статистическая термодинамика) на основе уравнений механики для атомов и молекул (молекулярно-кинетическая теория вещества) пытается обосновать законы, установленные эмпирической термодинамикой.
2. Идеальный газ - идеализированная модель газа, в которой предполагается, что средняя кинетическая энергия частиц газа много больше энергии их взаимодействия, так что можно пренебречь силами притяжения или отталкивания между молекулами, полагая соударения молекул между собой и со стенками сосуда абсолютно упругими. У такого газа внутренняя энергия не зависит от объема. Реальный газ, если он достаточно разрежен и поэтому молекулы находятся на значительном расстоянии друг от друга, можно приближенно считать идеальным.
3. Состояние системы характеризуется совокупностью переменных состояния. В феноменологической (основанной на опыте) термодинамике в качестве этой совокупности принимаются непосредственно измеряемые величины, например, температура, объем и пр. При этом внутренние характеристики системы, например, пространственные координаты молекул, их импульсы и т. д. из рассмотрения исключаются. То есть термодинамическое описание системы является неполным.
Состояние системы всегда может быть изображено геометрически в виде точки в фазовом пространстве. Фазовое пространство представляет собой математическое пространство состояний, имеющее столько измерений, сколько переменных состояния выбрано для характеристики состояния системы.
Если для определения положения всех частиц системы в пространстве (в некоторый момент времени) требуется минимум n координат, то система имеет n степеней свободы. Пространство, построенное на координатных осях, называют конфигурационным пространством. Оно является подпространством фазового пространства, которое имеет дополнительно n осей, соответствующих импульсам частиц вдоль каждой из координатных осей. Всего, таким образом, фазовое пространство содержит 2n осей, каждая из которых соответствует своей переменной состояния. Таким образом, состояние системы определяется значениями переменных состояния, а изменение состояния системы соответствует движению точки, определяющей состояние, по некоторой кривой (траектории) в фазовом пространстве.
4. Система, изолированная от внешних воздействий, стремится со временем прийти к своему предельному состоянию - термодинамическому равновесию, которое характеризуется выравниванием температуры по всей области, выравниванием скоростей прямых и обратных химических реакций и пр.
Система, не изолированная от внешних воздействий, может эволюционировать по-разному, в частности, стремиться к постоянному неравновесному стационарному состоянию (см. [3], с. 192). "В стационарном состоянии... граничные условия мешают системе перейти в состояние равновесия, <и> она делает лучшее из того, что ей остается, - переходит... в состояние, которое настолько близко к состоянию равновесия, насколько это позволяют обстоятельства" ([3], с. 193).
Состояние, к которому система стремится с течением времени, называют состоянием-аттрактором.
5. При неравновесном процессе система проходит состояния, каждое из которых характеризуется различными значениями термодинамических параметров в разных точках системы. В изолированной системе, находящейся в неравновесном состоянии, происходят необратимые процессы, которые стремятся привести систему в равновесное состояние.
6. Необратимый процесс протекает в определённом направлении смены состояний системы, и его нельзя провести в противоположном направлении через все те же самые промежуточные состояния.
7. В случае равновесного (квазистатического) процесса система проходит непрерывный ряд состояний, близких к состоянию термодинамического равновесия. Такое возможно лишь при условии бесконечно медленной скорости протекания процесса, чтобы температура и прочие параметры успевали выравниваться во всей системе. Реальный процесс изменения состояния системы, проходя с конечной скоростью, не может быть равновесным, и будет тем ближе к нему, чем медленнее процесс совершается. Отсюда и другое название реального равновесного процесса - квазистатический процесс.
8. Равновесный процесс всегда обратимый. И наоборот, любой обратимый процесс является равновесным.
При обратимом процессе система может перейти из одного состояния в другое как в одном направлений, так и в обратном. При этом промежуточные состояния системы при ее движении в любом направлении одни и те же, но порядок, в котором эти состояния следуют одно за другим, разный.
Обратимыми процессами можно управлять: малое изменение, например, температуры в ту или иную сторону приводит к изменению направления теплового потока.


 1. Термодинамическая энтропия

Понятие энтропии впервые введено Клаузиусом (1822-1888) в 1865 году. Он заметил, что при обратимых тепловых процессах "не убывает и не прибывает" ([4], с.352) величина

S = Q/T

(1)


где
Q - поглощаемое или выделяемое телом тепло,
Т - температура тела, при которой происходит поглощение или выделение тепла соответственно.

Изменение величины (1) при переходе "рабочего тела" обратимых машин из одного состояния в другое не зависит от пути (способа) перехода, и поэтому S есть функция только состояния (объема и температуры), названная термодинамической энтропией ([4], с. 352-354).

В необратимых процессах энтропия с течением времени возрастает. Полагая, что этот рост связан с переходом систем во все более вероятные состояния, в 1872 году Больцман (1844-1906) на основе молекулярно-кинетических представлений пришел к идее вероятностной трактовки энтропии, суть которой заключена в формуле

S = k lnW

(2)

где
k (постоянная Больцмана) - кинетическая энергия, которую приобретает (в среднем) молекула одноатомного газа при нагревании его на 2/3 градуса ([4], с. 255).
W - термодинамическая вероятность (статистический вес состояния).

К этому понятию (статистический вес состояния) можно прийти, рассмотрев простой пример.
Пусть есть сосуд, разделенный на две половины А и В проницаемой стенкой (см. Рис.1).

AB

Рис. 1

В сосуде могут свободно перемещаться из одной половины в другую четыре частицы 1, 2, 3 и 4, обладающие одинаковой энергией, например, молекулы газа.

Газ, состоящий из четырех частиц, конечно, условен, и статистические характеристики для столь малого количества частиц неприемлемы, но мы будем использовать такое упрощенное представление "газа" только для уяснения сути рассматриваемых понятий.

Тогда возможно шестнадцать вариантов расположения этих четырех частиц в зонах А и В (N предметов можно поместить в M ящиков MN способами, в нашем случае это 24 = 16).
Эти варианты представлены в таблице 1.

Таблица 1.
(Цифры от единицы до четырех в столбцах A и B являются номерами частиц)

N0ABМакросостояние
1-1 2 3 4I
212 3 4
321 3 4II
431 2 4
541 2 3
61 23 4
71 32 4
81 42 3III
92 31 4
102 41 3
113 41 2
121 2 34
131 2 43IV
141 3 42
152 3 41
161 2 3 4-V

Макросостоянием называют такую ситуацию, которая соответствует одним и тем же значениям некоторого макропараметра, (то есть параметра, который можно измерить прибором), например, давления частиц на стенки в каждой половине сосуда. Это давление не зависит от того, какая именно частица находится в той или иной зоне, важно лишь, чтобы энергии частиц были одинаковы, и они одинаково воздействовали бы на стенки сосуда. В этом случае давление будет зависеть только от количества частиц, находящихся в соответствующих зонах А и В.

Однако одно и то же количество частиц, определяющих одно и то же давление, может получиться разными способами. Например, четыре варианта под номерами 2, 3, 4 и 5 в таблице 1 характеризуют ситуацию (макросостояние II), когда в зоне А находится одна частица, а в зоне В - три частицы. Каждый из этих вариантов является одним из микросостояний газа. Другое макросостояние III, характеризуемое одинаковым количеством частиц (по две) в зонах А и В, образуется из шести микросостояний (номера 6-11 в таблице 1).

Мы и далее для наглядности будем говорить о том, будто бы некоторое макросостояние образуется из определенного числа микросостояний, хотя такое выражение не вполне корректно. На самом деле, если бы нам удавалось многократно "заглядывать" внутрь системы во время нахождения ее в одном и том же макросостоянии, то мы всякий раз обнаруживали бы там одно и то же расположение частиц по зонам, то есть обнаруживали бы одно и то же микросостояние. Ведь одна частица ничем не отличается от другой в смысле ее влияния на макросостояние. В связи с этим трудно не согласиться с высказыванием о том, что "если оставаться целиком на позициях классической статистики, то никакого понятия о "числе микроскопических состояний" вообще нельзя ввести" ([5] с. 40). Поэтому, когда говорят о разном количестве микросостояний для разных макросостояний, речь идет о числе способов, с помощью которых данное макросостояние может быть получено.

Количество микросостояний W для некоторого макросостояния называют статистическим весом данного макросостояния. То есть вес макросостояния II равен четырем, а вес макросостояния III - шести. Понятно, что на опыте мы будем обнаруживать преимущественно наиболее вероятные макросостояния, то есть такие, статистический вес которых больше. И максимальным этот вес будет при термодинамическом равновесии.

Вес любого макросостояния можно определить сразу, не прибегая к утомительным переборам комбинаций. Если в первой зоне имеется N1 частиц, во второй - N2 частиц и т.д. вплоть до зоны M (N= N1+N2+....+NM), то вес W макросостояния равен

 []

(3)

Например, для макросостояния II этот вес равен WII=C14*C33 = 4, а для макросостояния III он равен WIII=C24*C22= 6 в соответствии с таблицей 1.

Обратим внимание на то, что формулы (1) и (2) не позволяют определить абсолютное значение энтропии в том или ином состоянии, а только изменение энтропии. Действительно, например, глядя на формулу (2) можно было бы подумать, что абсолютное значение энтропии пропорционально логарифму статистического веса состояния W.
Однако по этой формуле, если символ W есть количество способов достижения макросостояния системы, невозможно вычислить значение энтропии для исходного состояния газа. Действительно, в исходном состоянии есть лишь одно состояние - исходное, и один способ получить это состояние - разместить все частицы в исходном объеме. Значит, статистический вес исходного состояния равен единице, а энтропия равна нулю, что не может соответствовать действительности.

Тем не менее, формула (2) существует и называется формулой Больцмана. При принятых обозначениях символов она пригодна только для вычисления изменения энтропии, и для практических целей этого достаточно. Но чтобы вычислить абсолютное значение энтропии, вместо W в формулу (2) надо подставить статистический вес , который должен иметь иной смысл (см. подробно [5] с. 39):

 []

(4)

где  [] - безразмерная величина, равная частному от деления фазового объема системы  [], деленному на постоянную Планка h (квант действия) в степени, равной числу степеней свободы s системы ([5] с. 15). Интервалы импульсов и координат частиц системы в фазовом пространстве  [] "характеризуют размеры той области фазового пространства, в которой данная подсистема проводит почти все время" ([5] с. 39).

В формулах (1), (2) и (4) энтропия имеет размерность "энергия/градус". И точно эту же размерность имеет постоянная Больцмана k. Поэтому, измеряя температуру не в градусах Кельвина, а в "энергетических" единицах, правые части указанных выражений делят на постоянную k, и тогда энтропия становится безразмерной величиной.

 []

(1')

 []

(2')

 []

(4')

Эти формулы характеризуют термодинамическую, статистическую и строго статистическую энтропию соответственно.
Использовать формулы (4) или (4'), даже в теории (не говоря уже о практике), подставляя в них величину "области фазового пространства, в которой данная подсистема проводит почти все время", по-видимому, затруднительно. Но существуют формулы для вычисления абсолютного значения энтропии, вполне пригодные и для практических расчетов (если рассчитываемые величины практически наблюдаемы). Например, энтропия идеального одноатомного газа, заключенного в теплоизолированный сосуд и достигшего равновесного состояния, может быть подсчитана по формуле ([6], с. 115, формула E.19):

 []

(4'')


где V - объем газа,
n - число атомов газа,
m - масса атома,
k и h - постоянные Больцмана и Планка соответственно,
E - полная энергия,
g - число неразличимых состояний на основном уровне атома.

 

 2. Термодинамический хаос

Из формулы (3) следует, что максимальным весом обладает макросостояние, которое характеризуется наиболее равномерным распределением частиц по зонам объекта. В этом случае максимально число способов, которыми можно переставить части объекта так, что при этом всё (в нашем примере давление на стенки) будет выглядеть без изменений. Полагают, что числом этих способов измеряется "беспорядок", имеющийся в объекте, а "логарифм числа способов - это энтропия" ([4], с. 383). Таким образом, одна из характеристик термодинамического хаоса может быть сформулирована следующим образом: чем больше способов переставить части объекта так, чтобы при этом макропараметры объекта не менялись, тем выше хаос внутри объекта.

Такой взгляд на хаос в какой-то мере согласуется с нашими представлениями о беспорядке. Действительно, если на некотором складе на каждой полочке лежит по одинаковой неподписанной коробочке, и поэтому мы не знаем, что и в какой коробочке находится, то это беспорядок, так как надо много раз заглянуть в разные коробочки, чтобы отыскать нужное содержимое (можно переставлять неподписанные коробочки, и внешне все будет выглядеть одинаково). Математики в такой ситуации говорят, что вероятность найти некоторый элемент в какой-нибудь коробочке равна вероятности обнаружить этот элемент в любой другой коробочке.

Чем еще характеризуется хаос, который мы связываем с термодинамическим равновесием, например, идеального газа?
Пожалуй, главным признаком термодинамического хаоса является феномен "перемешивания". Его лучше всего представить на примере перемешивания капли чернил, помещенной в стакан с водой. После полного перемешивания воды и чернил во взятом в любом месте объеме воды произвольной формы, но равном объему исходной капли чернил, количество молекул чернил в среднем оказывается одинаковым (равным  [], где n - число молекул в капле чернил). И вообще, если в системе после перемешивания мысленно выделить в произвольных местах некоторые достаточно малые, но все еще макроскопические, подсистемы произвольной формы равного объема, то хаос в системе характеризуется равенством всех средних макроскопических параметров любой подсистемы. Речь идет о равенстве нулю среднего импульса подсистем, о равенстве среднего количества частиц, средней массы, средней температуры и пр.

При таком равенстве всех средних параметров выяснить исходное состояние, например, капли чернил не представляется возможным (информация о начальном состоянии теряется). После перемешивания, таким образом, теряется корреляция между частицами, из которых состоит система, и она "забывает" свое начальное состояние.

О корреляции между массивами данных, процессами и пр. говорят в том случае, когда наблюдается некоторая аналогия между этими данными, процессами и пр. Корреляции - это, в общем случае, не взаимодействие. Вот пример.
Пусть в двух кинотеатрах разных городов в одно и то же время начался сеанс одного и того же фильма. Тогда говорят, что события, наблюдаемые на одном экране, коррелированны с событиями, наблюдаемыми на другом экране, по признаку их совпадения в одни и те же моменты времени. Понятно при этом, что события, наблюдаемые на разных экранах, причинно друг друга не обусловливают. Однако имеющиеся корреляции событий на экранах (их взаимное совпадение во времени) содержат в себе информацию о прошлом: о начальных условиях проката фильмов (фильмы были запущены одновременно), о том, что эти процессы были одинаково "приготовлены" и пр.

Механизм "забывания" прошлого связан с разрушением корреляций между молекулами. Примерную схему разрушения корреляций молекул в идеальных газах можно представить себе на упрощенном примере движения молекул в одной плоскости.
Пусть пара молекул изначально скоррелирована так, что они движутся рядом друг с другом примерно в одном и том же направлении со скоростью, существенно превышающей скорости остальных молекул. Тогда эту ситуацию приближенно можно представить в виде движения бильярдных шаров по плоскому столу с наличием многих (выпуклых) покоящихся препятствий (в виде других молекул). Подобные ситуации проанализированы во многих работах по анализу динамического хаоса (см., например, [7], [8], [9]), в которых доказано, что уже небольшое количество столкновений с препятствиями полностью разрушает корреляции между исходной парой шаров (молекул).

Обратим внимание на одно кажущееся противоречие.
С одной стороны, термодинамическое равновесие предполагает "забывание" системой своего начального состояния. С другой стороны, именно термодинамическое равновесие (максимальная приближенность к нему) позволяет восстановить исходное состояние путем организации обратимого процесса. Возникает, как будто бы, противоречие: термодинамическое равновесие есть условие невозможности возврата начального состояния, и оно же в обратимых процессах является условием возврата этого состояния. Противоречие разрешается тем, что информация, необходимая для возврата системы в исходное состояние при обратимых процессах, хранится не в самой системе (которая все "забыла"), а вне нее, во внешнем окружении. Иначе говоря, обратимые процессы в строгом смысле слова возможны лишь для незамкнутых систем.

Все сказанное выше про термодинамический хаос не встречает возражений при рассмотрении газов или жидкостей, когда можно наглядно представить себе перемешивание частиц, случайное распределение их скоростей и пр. Однако при рассмотрении систем, состоящих из плотных тел, в которых межмолекулярные силы накладывают связи, ограничивающие свободное движение частиц, возникают трудности с представлениями о хаосе и порядке. "Именно из-за трудностей, возникающих при рассмотрении плотных систем с взаимодействующими частицами, яркая пионерская теория Больцмана осталась незавершенной" ([3], с. 313), - говорит Пригожин (1917-2003).

 

 3. Динамический хаос

Система любой природы является динамической, если можно указать ее динамические переменные (координаты точек, их скорости и т. д.), характеризующие состояние системы, и так называемый оператор эволюции.
Оператор эволюции задают в виде уравнений движения или некоторой инструкции, описывающей методику, как по текущим значениям переменных определить их следующие значения.

Несмотря на такую предопределенность ближайших во времени состояний, для больших промежутков времени состояние многих динамических систем оказывается непредсказуемым. Эта непредсказуемость, если она имеет место быть, ассоциируется с понятием хаоса.

Мы не будем подробно останавливаться на всем огромном перечне вопросов теории динамических систем и ее важных разделов - теории хаоса и фракталов. Обратим внимание лишь на критерии, на основании которых определяют, где есть хаос, а где его нет. Это позволит выяснить, как связан динамический хаос с термодинамическим. Собственно, с этой единственной целью мы и "заглянули" в эту необозримую по своему объему и сложности тему (см., например, [10], [11], [12], [13]).

Итак, считают, что развитие динамической системы достигает хаоса, если один или несколько динамических параметров системы становятся случайными, и заранее их точное значение (из области возможных значений) непредсказуемо.

Возникает вопрос, каким образом детерминированная система может приобрести случайное состояние? Ведь ясно, что любое конкретное состояние, которое система достигла на текущий момент времени, предопределено непосредственно предшествующим состоянием и действием оператора эволюции. В этом смысле всякое текущее состояние системы не случайно.

Оказывается, однако, что случайность может "родиться из детерминизма", если эволюция системы (ее траектория в фазовом пространстве) чувствительна к незначительным изменениям начальных условий. Открытие такой возможности ("рождения" случайности из детерминизма) является "очень важным открытием" ([9], стр. 47). Оно доказало, что нашим миром не правит "демон" лапласовского детерминизма. Это открытие (и разработанный в связи с ним математический аппарат) позволило также эффективно решать практические задачи, например, анализа систем на устойчивость.

Обычно хаос в динамических системах рассматривают, анализируя эволюцию не одной системы, а ансамбля систем. Ансамбль состоит из множества одинаковых копий систем, незначительно отличающихся одна от другой лишь начальными условиями, и геометрически выглядит в фазовом пространстве в виде "облака" точек, изменяющего свою форму с течением времени.

Хаос консервативных систем (систем без потери энергии) характеризуется уже известным нам "перемешиванием", но в данном случае речь идет не о перемешивании внутренних элементов системы, а о перемешивании ансамбля систем: облако точек ансамбля с течением времени расплывается по всему фазовому пространству (сохраняя свой объем). Траектории его отдельных точек удаляются друг от друга, и поскольку при конечном фазовом пространстве удалиться на бесконечность невозможно, перепутываются друг с другом. Между исходными точками облака теряется связь (происходит "распад" корреляций), а информация о положении точек облака, известная изначально и в первые моменты эволюции, со временем теряется. Скорость потери этой информации определяет так называемая энтропия Колмогорова-Синая ([10], стр. 104).

Таким образом, хаос, который может возникнуть в консервативных динамических системах, не подверженных никаким случайным воздействиям, заключается в том, что состояние системы в долгосрочной перспективе оказывается непредсказуемым, случайным.

Эта случайность как будто бы противоречит отсутствию предыстории у любого случайного события, так как траектория детерминированной системы обратима во времени, и поэтому, казалось бы, можно предысторию восстановить, обратив уравнения движения. Согласовать эти два утверждения (первое - "состояние детерминированной системы в долгосрочной перспективе случайно", второе - "случайность не имеет предыстории") можно, если постулировать, что реальное обращение движения системы во времени обязательно в момент "обращения" вносит некоторое возмущение в пространственную координату системы. А в этом случае, учитывая чувствительность системы к малому изменению начального состояния, возврат в исходное состояние также оказывается случайным. Иначе говоря, предыстория системой утеряна.

Хаос диссипативных систем (системы теряют энергию) характеризуется существованием аттрактора в фазовом пространстве: вследствие потери энергии исходное облако ансамбля уменьшается в объеме. При этом могут возникнуть сомнения в возможности возникновения хаоса, потому что точки облака с течением времени приближаются к некоторому постоянному, а не случайному, множеству точек (аттрактору). Так оно и будет, хаос не возникнет, если аттрактор представляет собой единственную точку в фазовом пространстве, или, например, какую-нибудь замкнутую кривую.

Тем не менее, для многих систем обнаружены странные аттракторы - сложно устроенные фрактальные множества ([14]).

Как возникает случайность при движении по аттрактору, если случайных воздействий на систему нет? Нестрого этот феномен можно описать следующим образом. Пусть, например, аттрактор представляет собой сложную многослойную поверхность, похожую на голову кролика с двумя длинными ушами. Зашифруем "уши" кролика цифрами: 0 - левое ухо, 1 - правое ухо. Теперь найдем некоторое случайное число путем подбрасывания монеты: запишем 0 в первом разряде числа, если при первом бросании монеты выпала решка, и запишем 1, если выпал орел. Таким же образом определим с помощью бросания монеты остальные разряды числа. В итоге мы получим случайное число, например, такое: 11000101110010....1.

Оказывается, что в процессе эволюции ансамбля систем, "стартующих" из некоторой малой области фазового пространства (вне аттрактора или с него самого), в "облаке" этого ансамбля найдется точка А, траектория которой точно будет соответствовать нашему случайному числу: траектория дважды "посетит" правое ухо, затем трижды пройдет по левому уху, далее опять правое и так далее в соответствии с разрядами числа 11000101110010....1. Порядок обхода "ушей" системой В, начальные условия которой незначительно отличаются от системы А, будет соответствовать другому случайному числу. Это так, потому что одна из траекторий (системы А или В) после удаления от другой, "пропустит" некоторое ухо, в то время как другая траектория его посетит, и тогда будущие истории систем А и В станут независимыми.

Таким образом, хаос, наблюдаемый при эволюции динамических систем в ограниченной области пространства, представляет собой нерегулярный тип движения, характеризуемый чувствительной зависимостью траекторий от начальных условий. Это приводит к долгосрочной непредсказуемости (случайности) одного или нескольких параметров системы, несмотря на то, что каждое последующее состояние системы обусловлено (детерминировано) предыдущим состоянием.

Итак, если термодинамический хаос характеризуется отсутствием в системе информации о прошлом этой системы (о ее прошлых состояниях), то динамический хаос характеризуется отсутствием информации о будущих состояниях системы.

 4. Информационный хаос

Динамический хаос характеризует процесс изменения состояния системы во времени для систем, чувствительных к незначительному изменению их начального состояния, но не характеризует самое текущее состояние системы как хаотическое или упорядоченное. Поэтому, исходя из критериев динамического хаоса, относительно хаотичности или упорядоченности текущего состояния системы ничего сказать нельзя.

В отличие от динамического хаоса понятие термодинамического хаоса относится к текущему состоянию системы. При этом представление о хаосе (при стремлении системы к термодинамическому равновесию) формируется, исходя из неразличимости элементов системы относительно макропараметров. Однако можно развить и иное представление о хаосе, основанное на различимости внутренних элементов системы. Вот некоторые соображения в пользу такого представления.

Во-первых, суждение о хаосе или порядке в расположении каких-либо объектов формируется у нас в зависимости от имеющейся информации, позволяющей конкретный предмет быстро отыскать (а для этого он должен отличаться от других!). Не зря же некоторые люди, имеющие обыкновение держать свои вещи, книги, записи и пр. "разбросанными" в самых неподходящих местах, бывают крайне возмущены, если кто-то приведет эти вещи в "порядок" - теперь уже нужную вещь трудно отыскать, уверяют они. Беспорядок, - говорим мы, - если в длинном списке фамилии не расположены в алфавитном порядке, и требуется много времени, чтобы отыскать фамилию нужного человека. А если улицы и дома расположены не строгими рядами, а как придется, тогда даже таблички с номерами домов мало помогают найти нужный адрес. Или еще пример: файлы на жестком диске компьютера (и даже их отдельные части) разбросаны в самых разных местах диска, тем не менее, на диске полный порядок, потому что в файловой системе имеются адреса для быстрого поиска нужных файлов. При потере этих адресов, на диске воцаряется хаос.

Иначе говоря, расположение элементов системы мы воспринимаем как беспорядочное не только в случае неразличимости элементов системы и поэтому незнания их местонахождения, но и в случае различимости этих элементов при отсутствии информации об их расположении относительно друг друга.

Во-вторых, в любой системе (газ, жидкость, твердые тела) энтропия определяется тепловой составляющей внутренней энергии системы. Другие, макроскопически различимые составляющие энергии, могут обусловливать как упорядоченное, так и хаотическое состояние системы. Рассмотрим это подробней.

Первый закон термодинамики (закон сохранения внутренней энергии dU системы) выражается следующей дифференциальной формулой (система не изолирована и не обязательно находится в термодинамическом равновесии):

 []

(5)


где

 [] - малое изменение тепла, передаваемого системе. Согласно второму закону термодинамики для обратимых процессов

 []

(6)

 [] - малое изменение работы, совершаемой системой над окружающей средой.
Работа может производиться не только за счет поступившего тепла , но и за счет механической, электрической и пр. внутренней энергии, имеющейся в системе. Согласно закону сохранения энергии необходимо лишь, чтобы соблюдалось равенство (5), принимающее с учетом (6) вид:

 []

(7)


Слагаемым  [] в правой части формулы (7) представлена та составляющая внутренней энергии системы, которая описывает неконтролируемые степени свободы микроскопического движения частиц вещества, ответственные за термодинамический хаос. А слагаемое  [] содержит энергетические составляющие, которые можно проконтролировать, измерив действие механических сил, электромагнитного поля и т.д. на окружающие тела. Например, механическая работа, совершаемая газом при поглощении тепла  []и изобарном расширении (при постоянном давлении), равна  [], где P - давление, V - объем.

Таким образом, соотношение (7) означает, что внутренняя энергия сохраняется в результате "конкуренции" тепловой энергии и других ее видов, которые могут быть измерены. Как говорит Пригожин, "при низких температурах перевес на стороне энергии, и мы наблюдаем образование таких упорядоченных (с малой энтропией) и низкоэнергетических структур, как кристаллы,... при высоких температурах доминирует энтропия и в системе устанавливается молекулярный хаос" ([3], стр. 179). Иначе говоря, между элементами системы, когда "перевес на стороне энергии" (не тепловой), возникают связи, позволяющие отличать друг от друга отдельные части системы (кристаллы и пр.).

Именно в связи с различимостью отдельных подсистем понятию хаоса можно придать иной смысл, не только отличный от смысла термодинамического хаоса, но и полностью противоположный ему. Этот тип хаоса уместно назвать информационным хаосом. Он наступает не тогда, когда различия между подсистемами с ростом теплового движения молекул уменьшаются, а, наоборот, когда различий становится больше в связи с удалением от термодинамического равновесия.

Представляется разумным в качестве меры информационного хаоса текущего (зафиксированного) состояния системы принять количество разнообразных частей, которые могут быть выделены из этой системы (это количество назовем энтропией структуры или информационной энтропией системы). Тогда критерий наличия информационного хаоса может быть сформулирован, например, так:

наибольший информационный хаос в системе наблюдается тогда, когда из системы можно вычленить максимально возможное количество ее различимых частей.

Или так:

хаоса в текущем состоянии системы больше всего тогда, когда полное описание этого состояния (то есть описание подсистем и связей между ними) при оптимальном кодировании информации содержит максимум бит по сравнению с подобными описаниями других состояний.

Мера информационного хаоса может быть определена также максимальным временем, которое требуется для поиска элементов системы при оптимальной процедуре поиска.

Покажем на примере условного газа состоящего из четырех частиц (см. таблицу 1), как "работает" указанный критерий.

Пусть молекулы различимы, например, по величине энергии, которую мы предполагаем условно измеримой за короткий промежуток времени, в течение которого рассматривается состояние системы. Можно ли теперь, заглядывая в сосуд несколько раз и всякий раз обнаруживая там разные состояния, сказать, что одно состояние более хаотично по сравнению с другим, или нет?

Чтобы ответить на этот вопрос, нам надо для наглядности найти удобную математическую схему для обозначения элементов. Ранее в таблице 1 мы присваивали номера отдельным молекулам нашего условного газа, выписывали возможные комбинации этих молекул, и, в свою очередь, присваивали номера этим комбинациям. Однако такой способ хоть и нагляден для малого количества молекул, но для большого числа элементов он неприемлем. Много проще для маркировки частиц воспользоваться тем, что любой объект, состоящий из n элементов, каждый из которых может находиться в одном из m состояний, может быть приведен во взаимно однозначное соответствие с n-разрядным числом m-ичной системы счисления. Для этого надо конкретному элементу объекта поставить в соответствие определенный разряд числа, а конкретному состоянию - определенную цифру. И тогда можно анализировать структуру чисел, что проще, чем непосредственно анализировать структуру самих объектов.

Давайте, так и сделаем. Пусть номер частицы соответствует номеру разряда двоичного числа, нахождение некоторой частицы в зоне А соответствует значению "1" этого разряда (нахождение в зоне В - значению "0"). Тогда каждое микросостояние отобразится на некоторое четырехразрядное двоичное число, указанное в колонке "число" таблицы 2, причем всем микросостояниям будут соответствовать разные числа.

Таблица 2

N0ABЧисло
Энтропия
(разряды не зациклены)
структуры
(разряды зациклены)
1-1 2 3 40 0 0 044
212 3 40 0 0 1713
321 3 40 0 1 0813
431 2 40 1 0 0813
541 2 31 0 0 0713
61 23 40 0 1 1814
71 32 4 0 1 0 178
81 42 31 0 0 1814
92 31 40 1 1 0814
102 41 31 0 1 078
113 41 21 1 0 0814
121 2 34 0 1 1 1713
131 2 431 0 1 1813
141 3 421 1 0 1813
152 3 411 1 1 0713
161 2 3 4-1 1 1 144

Выясним, какие из чисел таблицы 2 имеют наиболее хаотичную структуру. Для этого в соответствии с критерием информационного хаоса будем извлекать из некоторого числа любые его части в виде подряд стоящих разрядов.

Если проделать эту процедуру без "соединения" первого и последнего разрядов, то, например, из числа 1100 получим следующие 8 вариантов "подсистем" числа: 0, 1, 00, 10, 11, 100, 110 и 1100 (количество вариантов помещено в столбцы "энтропия структуры" таблицы 2). Количество "подсистем" числа будем называть статистическим весом числа, определяющим меру его информационной хаотичности.

Если же повторить эту процедуру с циклической связью разрядов (при этом первый и последний разряды считаются стоящими рядом), то количество вариантов (для того же исходного числа 1100) увеличится до четырнадцати: 0, 1, 00, 01, 10, 11, 001, 011, 100, 110, 0011, 0110, 1001 и, наконец, 1100 (см. табл. 2).

В связи с малым количеством молекул (разрядов числа) меры их хаотичности различаются незначительно. Но при увеличении количества молекул хотя бы до десяти это различие проявляется больше. Например, согласно "термодинамическому" критерию хаоса, когда молекулы неразличимы, в соответствии с формулой (3) имеется 252 наиболее хаотичных состояния (0000011111, 0000111110, 0101010101 и т.д.), когда в каждой из зон находится по пять молекул. Однако согласно "информационному" критерию, когда молекулы различимы, почти все эти 252 комбинации упорядочены, и только следующие восемь
1000101110 1000111010 1010001110 1011100010 0100011101 0101110001 0111000101 0111010001

обладают максимальным статистическим весом (равным 42 при отсутствии зацикливания разрядов). А, например, комбинация 0101010101 имеет статистический вес, равный 19, что в соответствии с "информационным" критерием хаоса свидетельствует о значительной упорядоченности ее структуры, несмотря на то, что это микросостояние характеризует термодинамический хаос. То есть, при термодинамическом хаосе во многих микросостояниях наблюдается информационный порядок (подробнее этот вопрос будет рассмотрен в пятом параграфе этой главы).

Для сведения: еще восемь десятиразрядных двоичных числа обладают максимальным информационным хаосом:
0001011100 0001110100 0010111000 0011101000 1100010111 1101000111 1110001011 1110100011

Числа, обладающие максимальной энтропией структуры, содержат в себе и максимальное количество информации, необходимой для описания их структуры. Эта информация не может быть "сжата" никакими способами, в отличие от чисел, содержащих много идущих подряд нулей или единиц, которые могут быть "сжаты". Например, есть последовательность шестидесяти четырех нулей подряд. Такая последовательность может быть "сжата", то есть, записана с использованием меньшего числа бит без потери информации. Например, так: 011001000. Вначале этого числа (слева направо) указано количество нулей в двоично-десятичном коде, а последний разряд равен символу, имеющемуся в последовательности. Зная правила расшифровки, мы можем понять, что этими девятью битами записана последовательность нулей в 64 бита. Если же попытаться "сжать" другую комбинацию 64-х нулей и единиц, например, такую
0000001111011000010001100100111010110111111000101110011010010101

то это окажется невозможным, потому что эта комбинация содержит максимальное количество информации (информационная энтропия, характеризующая беспорядочное расположение нулей и единиц этой комбинации, максимальна). Действительно, путем произвольной выборки из данной закольцованной комбинации каждый раз не более 64-х разрядов, расположенных подряд, можно получить 3838 различных чисел, что является максимально возможным значением.

Величину максимальной информационной энтропии Е "n"-разрядного двоичного числа можно определить по одной из формул:

 []

(8)

 []

(9)

где m целое и m = kmax в неравенстве 2k < n (k целое),
 []- число сочетаний из (n - m + 1) элементов по два.

По формуле (8) вычисляется максимальная энтропия "закольцованного" числа, по формуле (9) - числа с "разомкнутым" кольцом между первым и последним разрядами. Для объектов со многими зонами и элементами подсчет информационной энтропии, разумеется, много сложней.

Таким образом, кроме хаоса термодинамического и динамического можно указать еще на одну "разновидность" хаоса - информационный хаос. Мерой этого хаоса является информационная энтропия. Чем она больше, тем больше разнообразных подсистем содержит система.

 

 5. Негэнтропия Бриллюэна

Пусть система находится в термодинамическом равновесии (с максимальной энтропией Smax), и пусть в результате внешнего воздействия количество микросостояний в системе уменьшилось так, что энтропия системы стала равной S < Smax.
Согласно Бриллюэну (1889-1969) величину

N = Smax - S

(10)

следует ассоциировать с информацией I, поступившей в систему и присутствующей теперь в системе в виде всевозможных связей между молекулами. Эту информацию I, связанную с "микросостояниями физической системы" ([15], с. 200), Бриллюэн называет связанной информацией.
Соотношение (10) можно переписать в виде

S = Smax - N

(11)

Из выражения (11) видно, что текущее значение энтропии системы можно представить в виде суммы двух слагаемых - положительного и отрицательного. Второе слагаемое, поскольку оно вносит отрицательный вклад в энтропию, Бриллюэн назвал негэнтропией (отрицательной энтропией). На рис 2 изображена схема, иллюстрирующая связь обсуждаемых понятий.

 []
Рис 2.

На схеме оси энтропии S и негэнтропии N направлены в противоположные стороны, так что их величины, отсчитываемые от соответствующих нулевых значений, положительны. Значения энтропии S0 и негэнтропии N0 соответствуют некоторому текущему состоянию системы. Эти значения изменяются до величин S1 и N1, если из системы была извлечена некоторая информация (система совершила работу над внешней средой). Если же система получила информацию извне, то соответствующие величины энтропии и негэнтропии станут равными S2 и N2.
Поясним сказанное.

Во-первых, оценивая хаос или порядок, имеющийся в системе, необходимо различать те основания, на которых может базироваться наша оценка. Например, можно сказать, что с ростом энтропии беспорядок растет, если имеется в виду термодинамический хаос, но можно сказать и, наоборот: с ростом энтропии увеличивается порядок, если имеется в виду информационный хаос. Действительно, с ростом энтропии при достижении термодинамического равновесия, с одной стороны, наблюдается термодинамический хаос среди микроэлементов системы, с другой стороны, наблюдается полный информационный порядок: все наблюдаемые макропараметры детерминированы и неизменны. А при температуре, приближающейся к абсолютному нулю, когда энтропия стремится к нулю, наблюдается "полный термодинамический порядок" (каждый элемент системы покоится на своем месте) и максимальный информационный хаос. Именно информационный хаос, потому что в системе можно обнаружить максимальное количество различающихся подсистем, ибо неразличимых "неподконтрольных" элементов в связи с отсутствием энтропии в системе нет. "Энтропия есть мера недостатка информации; она выражает общее количество отсутствующей информации об ультрамикроскопической структуре системы" ([15], с. 17), и равенство энтропии нулю свидетельствует о том, что в системе содержится максимально возможное количество связанной информации.

На противоположный смысл информационного и термодинамического хаосов указывал еще Бриллюэн. Правда, он не вводил в свою теорию понятия информационного хаоса, а указал лишь на совпадение понятий "энтропии информации" и негэнтропии: то, что "Шеннон называет энтропией информации, в действительности означает негэнтропию" ([15], с. 212).

Во-вторых, говоря о наличии термодинамического хаоса или информационного порядка (например, при максимальном значении энтропии), мы имеем дело лишь с терминологическим различием, потому что в первом случае при утверждении о наличии "хаоса" имеют в виду те же физические обстоятельства, что и во втором случае при утверждении о наличии "порядка". Это так, если информационный хаос определен на том же структурном уровне, что и термодинамический порядок, и тогда оси энтропии и негэнтропии на схеме рис 2 отличаются лишь направлением, но не масштабом. Однако эти понятия могут быть определены на разных уровнях рассмотрения элементов. В таком случае полного соответствия термодинамического хаоса и информационного порядка (и наоборот) не будет.

Вместо пяти макросостояний, указанных в таблице 1, могут быть определены другие макросостояния более высоких уровней. Например, нам безразлично, в какой из зон давление газа больше, а интересует лишь ситуация, когда в зонах А и В одинаковые давления (эту ситуацию можно использовать, например, с целью управления включением или выключением некоторого устройства). Тогда в нашей системе будет всего два макросостояния, одно из которых характеризуется признаком - "в зонах разное давление" (объединение "старых" макросостояний с номерами 1, 2, 4 и 5), другое определяет одинаковое давление в зонах (макросостояние 3).
В подобных случаях, когда нас интересует информация о неких "крупных" подсистемах, может оказаться, что термодинамическая энтропия и информационный порядок отличны друг от друга не только терминологически, но и физически.

Обычно при измерении количества информации в битах, а энтропии - в безразмерных единицах согласно формуле (1"), отношение этих единиц измерения друг к другу равно примерно 10-16 ([15] с. 22).


 6. Не много ли модификаций информации?

Мы говорили уже о том, что внутреннюю энергию любой системы можно разграничить на неупорядоченную (  []) и упорядоченную ( [] ) составляющие. При этом упорядоченная составляющая энергии ответственна за работу, которую может совершить система, и она же представляет собой зону негэнтропии, область, в которой хранится связанная информация системы.

Неупорядоченная часть энергии определяет энтропию текущего состояния системы. Эта составляющая является зоной информации, имеющейся в системе, но потерянной для внешних систем (назовем ее "термодинамической информацией"). Происходит так потому, что хаотическое поведение элементов системы не может быть проконтролировано извне, а нулевые средние значения импульса и момента импульса хаотически движущихся элементов не могут совершить работу.

Таким образом, можно говорить о двух модификациях информации, содержащейся в системе.

Первая модификация - связанная информация - находится внутри системы, принадлежит ей, ассоциируется с негэнтропией, и может быть передана вовне системы за счет работы, совершаемой системой.

Вторая модификация - термодинамическая информация. Она есть в структуре молекул, атомов и прочих элементарных образований ("гипнонов" Пригожина см. подробно [3], с. 239, 357), никак не проявляющих своей внутренней организации, и поэтому вовне системы эта информация не передается.

О третьей модификации мы уже упоминали - это информация Шеннона, передаваемая от источника информации приемнику (ее обсуждение проведем в другой главе).

Перечень "версий" информации этими тремя видами, к сожалению, не исчерпывается. Например, чтобы ответить на вопросы, связанные с передачей и копированием информации, в работе [15] используется еще несколько "сортов" информации. Вот неполный перечень "жертв", принесенных на алтарь спасения понятия информации: свободная информация ([15] с. 200), запасенная информация ([15] с. 339), абсолютная и распределенная информация ([15] с. 345).

Существует мнение, что синтез всех модификаций информации 'очень труден и полностью еще не осуществлен; эта проблема относится к числу глубоких научных проблем, которые ждут своего решения' [16]. Однако мы не будем обсуждать ни приведенные выше термины, ни их "живые" и "мертвые" ([15] с. 338-339) варианты. Потому что столь обширный набор "сортов" информации свидетельствует просто о неблагополучной ситуации с определением этого понятия. По-видимому, осмысление информации возможно на ином, "событийном" уровне, когда при анализе понятия информации внимание концентрируется на событиях, реализация которых "рождает" информацию. Некоторые соображения по этому поводу, сводящие все мыслимые и немыслимые виды информации, в основном, к двум сущностям - информации и информационному сообщению, будут рассмотрены в других главах.


 7. Итоги

Существует, по крайней мере, два представления о хаотичности текущего состояния системы.

Первое (термодинамическое) связано с неразличимостью элементов системы относительно макропараметров (и невозможностью следить за степенями свободы этих элементов). При таком представлении мера хаоса - термодинамическая энтропия.

Второе представление о хаосе (информационное) связано с различимостью элементов системы (и возможностью контролировать степени свободы этих элементов). Мера такого хаоса - информационная энтропия Шеннона (негэтропия Бриллюэна).

Эти представления противоположны друг другу по смыслу, и когда термодинамический хаос растет, информационный хаос убывает, и наоборот.

Кажущееся противоречие, упомянутое в начале главы, возникло как раз потому, что один и тот же термин "энтропия" употреблен Винером и Шенноном "с привязкой" к разным представлениям о хаосе.

Винер, например, говорит о связанной информации Бриллюэна и о термодинамическом хаосе и порядке: больше хаоса - больше энтропия, больше порядка - больше связанной информации в структуре системы. И в этом смысле информация (связанная!) есть мера порядка (термодинамического!).

А Шеннон говорит об информации, получаемой от системы, об ее информационном хаосе и порядке: больше в системе хаоса (информационного!) - больше негэнтропия, больше порядка (информационного!) - меньше информации от системы можно получить. Так что информация (шенноновская!) есть мера хаоса (информационного!).

Итак, одним и тем же словом "хаос" обозначают порой разные сущности. Забвение этого обстоятельства может привести к неоднозначности высказываний. Поэтому, если это не следует из контекста, необходимо уточнять, какой хаос имеется в виду, информационный, термодинамический или динамический.

 

 


 Литература

1. Винер Н. Кибернетика, или управление и связь в животном и машине; М: Наука, 1958.
2. Shannon C., Weaver W. The Mathematical Theory of Communication. Urbana, 1949. . (Шеннон К. Работы по теории информации и кибернетике. - М.: Изд. иностр. лит., 1963. - с. 243-332)
3. Пригожин И., Стенгерс И. Порядок из хаоса: Новый диалог человека с природой: Пер. с англ./ Общ. ред. В. И. Аршинова, Ю. Л. Климонтовича и Ю. В. Сачкова. - М.: Прогресс, 1986.
4. Фейнман Р., Лейтон Р., Сэндс М. Фейнмановские лекции по физике. М., Мир, 1976, т. 3-4.
5. Ландау Л., Лифшиц Е.. Теоретическая физика, т. 5, ч. 1 - М.: Наука, Физматлит, 1976.
6. Mayer J. E., Mayer M. G. Statistical mechanics, Columbia University, NewYork City, 1940.
7. Синай Я. Г. "Динамические системы с упругими отражениями. Эргодические свойства рассеивающих бильярдов", УМН, 25:2(152) (1970), 141-192.
8. Бунимович Л. А. "О бильярдах, близких к рассеивающим", Матем. сб., 94(136):1(5) (1974), 49-73.
9. Рюэль Д. Случайность и хаос. - Ижевск: НИЦ "Регулярная и хаотическая динамика", 2001, 192 стр.
10. Заславский Г. М., Сагдеев Р. З. Введение в нелинейную физику: От маятника до турбулентности и хаоса. - М.: Наука, 1988.
11. Кузнецов С. П. Динамический хаос (курс лекций).- М.: Издательство Физико-математической литературы, 2001.
12. Штайнер Ф. Квантовый хаос. - Нелинейная динамика, 2006, т.2, ?2, с. 214-235. //Dietrich Reimer Verlag, Hamburg, 1994, s. 543-564. http://nd.ics.org.ru/doc/r/pdf/793/1
13. Мухин Р. Динамический хаос: взаимодействие физического и математического аспектов. - Вестник Российской Академии Наук, 2007, том 77, ? 3, с. 227-234
http://www.ras.ru/FStorage/download.aspx?Id=71b9a319-fb2c-4ab5-8ed0-5107a5bf6ca5
14. Федер Е. Фракталы, М., Мир, 1991
15. Бриллюэн Л. Наука и теория информации.- М.: Физматлит, 1960.
16. Время и современная физика. Сборник. М.: Мир, 1970, c.124


Нарва, Эстония
Сентябрь 2009 - Апрель 2010


 Ваша оценка:

Связаться с программистом сайта.

Новые книги авторов СИ, вышедшие из печати:
О.Болдырева "Крадуш. Чужие души" М.Николаев "Вторжение на Землю"

Как попасть в этoт список