Алескер Марк: другие произведения.

Что есть хаос? Часть третья: замечания по работе А.М. Хазена О термине действие-энтропия-информация

Журнал "Самиздат": [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Обзоры] [Помощь]
Peклaмa:
Литературные конкурсы на Litnet. Переходи и читай!
Конкурсы романов на Author.Today

Продавай произведения на
Peклaмa
 Ваша оценка:

Что есть хаос? Часть третья: замечания по работе А.М. Хазена О термине действие-энтропия-информация

Марк Алескер

В работе А.М. Хазена "О термине действие-энтропия-информация" обсуждается вопрос о том, что же такое информация. Хазен вводит два разных понятия информации: информацию, относящуюся к "природе в целом и биологии в частности", а также информацию, относящуюся к "приложениям теории информации".
С таким разделением можно было бы согласиться, если бы речь шла об одной из сторон информации - ее содержании. Однако автор ведет речь о понятии информации в целом, не отделяя содержание информации от ее количества. В этом случае некоторые утверждения автора, касающиеся понятия информации, по-видимому, действительности не соответствуют.

Мы покажем далее, что понятие информации едино как для "природы в целом и биологии в частности", так и для "приложений теории информации". Уже прямо сейчас можно указать на противоречие в подобном разделении понятий.
Посудите сами, Хазен определяет информацию (для "приложений теории информации") так: "информация есть устранённая неопределённость для достижения цели". То есть понятие цели, которую ставит перед собой человек, присутствует в определении информации для "приложений теории". А сам человек, ставящий цели, "охвачен" другим определением информации "для природы и биологии". Но не может быть цели в "приложениях теории информации" без самого человека. Кроме того, "цель" - это субъективное понятие, и поэтому не может быть включено в определение естественнонаучного понятия (информации).

Вначале приведем некоторые общие соображения. (Далее все цитаты взяты из анализируемой работы Хазена).

  1. Во-первых, нельзя согласиться с утверждением о том, что "существование цели передачи сообщений - главная особенность теории информации", и будто бы "элементарно очевидно", что при определении информации понятие цели "в связи с очевидностью создателями теории информации явно" не подчёркивалось.
    С не меньшей степенью уверенности можно утверждать обратное: "элементарно очевидно", что при передаче и обработке информации для ее определения нет необходимости в привлечении понятия цели. Именно поэтому ("в связи с очевидностью") в определении информации, предложенной ее создателями, понятие цели не упоминается.
    Главная особенность теории информации - это введение меры для информации, не зависящей ни от каких субъективных оценок, в частности, от целей, которые ставит перед собой человек. Это и делает информацию научным понятием.

    Что касается понятия цели, то следует сразу отметить, что это понятие является субъективным, и поэтому не может быть включено в определение естественнонаучного понятия (информации). Например, некоторые люди говорят, что цель их жизни - прожить как можно дольше. Но тот человек, который в связи с неизлечимой болезнью мучительно страдает, так не думает. Его цель - хотя бы временно прекратить страдания, или умереть. Для другого цель жизни - делать добро, для третьего - творить зло, для четвертого - познавать окружающий мир и т. д. Все эти люди правы, они действительно говорят о своей цели в жизни. Но это значит, что цель (как и "счастье")- понятие сугубо субъективное.



  2. Во-вторых, определение информации для случая "приложений теории информации", данное автором, не полно.
    Действительно, с одной стороны, автор полагает, что "информация есть устранённая неопределённость для достижения цели", с другой - "информация как устранение неопределённости нереализуема", если "у передатчика и приёмника сообщений не существует одинаковой "книги сообщений"".
    В таком случае "книга сообщений", без которой информация нереализуема, должна иметь частное определение, включенное в общее определение понятия информации.

Теперь несколько конкретных замечаний. Мы приведем их в виде диалога автора анализируемой работы (Х) и автора настоящих замечаний (А).

  1. Х: "Для человека, его поведения и разума характерна предварительная постановка цели. Далее человек совершает действия, с помощью которых достигает этой цели. Первично в их основе случайные попытки найти путь достижения поставленной цели. Человек обладает памятью. У него есть языки и письменность, позволяющие передавать запомненное другим людям. Итогом истории явилось слово - информация, которым обозначается то запомненное, что освобождает от повторения множества случайных проб и ошибок, а потому упрощает достижение цели. Отсюда наиболее глобальное, что превращает слово информация в научный термин - информация есть устранённая неопределённость для достижения цели. Первая часть этого определения общепринятая... Вторая его часть (о понятии цели) в связи с очевидностью создателями теории информации явно не подчёркивалась".

    А: Никакая субъективная деятельность человека, включая достижение поставленной цели, не может явиться базой для построения научных терминов и "глобальных" выводов. Только установление меры, позволяющей с помощью "бездушных" приборов производить количественные измерения, превращает некоторый термин в естественнонаучный.

  2. Х: "Устранение неопределённости есть увеличение вероятности наступления того, что задано как цель".

    А: Каким образом при получении информации, например, о результатах розыгрыша лотереи увеличивается вероятность заданной цели - выигрыша автомобиля? Этого, как правило, не происходит, так как обычно автомобиль не выигрывается. Тем не менее, неопределенность при получении информации о результате розыгрыша всегда устраняется (становится ясно, есть выигрыш или нет его). Таким образом, устранение неопределенности не "есть увеличение вероятности наступления того, что задано как цель". Цель может быть разная, а количество получаемой информации всегда одно и то же: это устраненная изначальная неопределенность источника сообщений. Разумеется, в теории информации нет никакой разницы между "природным" источником, в частном случае "биологическим", компьютером или человеком.



  3. Х: "Реально для наблюдателя-человека, для аппаратуры телевизионных передач и их приёма, для её простейших элементов определения информации вводятся на основе разных признаков, по отношению к которым возникает неопределённость - одна и та же система в зависимости от поставленных разных целей становится формально несопоставимо разной".
    Например, в телевизоре "целью передачи информации является сама "картинка", а неопределённость выражается по отношению к равномерной засветке экрана". Для "простейших элементов телевизора или компьютера... как реализованных изделий... неопределенность и цель свои. Они обмениваются информацией в том смысле, что устраняется неопределённость ДА, НЕТ их возможных состояний".

    А: В цепочке "простейших элементов телевизора или компьютера" мы не "вводим определения информации на основе разных признаков", а наблюдаем разные преобразованные друг в друга информационные символы, несущие к приемнику одну и ту же информацию (информационное значение).
    Чтобы в этом разобраться, уточним вначале смысл двух терминов, которые часто используют, но четко не разграничивают. (Это и приводит иногда к путанице и неясностям).


Итак, информация, как уже упоминалось, обладает количественной мерой и содержанием.
По поводу количества информации споров и неясностей возникнуть не может, потому что количество можно измерить или вычислить.
Что касается содержания информации, то, если не уточнить это понятие, можно "доказать" что угодно: и его субъективность, и объективность, и необходимость привлечения понятия цели для определения информации и т.п.
Сейчас мы этим и займемся для того, чтобы смысл понятия "содержание информации" стал для нас вполне ясным.

"Доказательство" того, что содержание информации субъективно.

В компьютере некоторая таблица из "нулей" и "единиц" может являться одновременно и рисунком, и звуком, и инструкцией для управления компьютером и т. п. (По крайней мере, никаких принципиальных ограничений для того, чтобы так было одновременно, нет). Все зависит от того, каким "простейшим элементом" компьютера эти символы будут обрабатываться в дальнейшем. Если они будут переданы видео карте и далее монитору, то на экране будет обнаружено некоторое изображение. Если эти символы попадут в звуковую карту и далее в наушники, то будет воспроизведено музыкальное произведение. Наконец, если они попадут в регистр команд компьютера, то последний начнет выполнять соответствующие инструкции.
Таким образом, содержание информации зависит от приемника информации и в этом смысле оно субъективно, что и требовалось доказать.

Еще нагляднее субъективность содержания информации обнаруживается в живой природе. Если приемник информации, например, студент, не может понять приходящую к нему от профессора информацию, то для студента этой информации просто нет.
Для более понятливого студента это же информационное сообщение профессора является полезной информацией.
Таким образом, наличие или отсутствие содержания информации зависит от принимающего эту информацию субъекта, что и требовалось доказать.

"Доказательство" того, что содержание информации объективно.

Вначале необходимо повторить, что мы понимаем под термином "информационный символ".

Информационный символ - любой носитель энергии, с помощью которого некоторый объект взаимодействует с окружающим миром.
Информационные символы, по причине общей природы материи, прямо или косвенно могут быть "опознаны" принимающим объектом. Например, если человек не может непосредственно принимать электромагнитный сигнал радиоволнового диапазона, то такой прием может быть осуществлен после преобразования этого сигнала радиоприемником в звуковой сигнал.
Иначе говоря, символ допускает перекодировку. Точнее можно сказать так: существуют "символьные" классы, каждый из которых имеет некоторое информационное значение; информационный символ является представителем данного класса и, обладая той или иной энергетической природой, может быть преобразован в любой другой представитель этого класса.

Информация "рождается" в источнике информации. Это рождение возможно лишь при условии, что источник способен генерировать разные информационные символы случайным образом, и заранее неясно, какой символ будет "рожден" в очередной момент времени. "Рождение" конкретного символа - это осуществление некоторого случайного события, и этот факт рождения, разумеется, объективен. Таким образом, каждому передаваемому символу информационного сообщения соответствует осуществление некоторого реального события. Взаимно однозначное соответствие, установленное между событиями и соответствующими им символами, и представляет собой содержание информационного сообщения. В этом смысле содержание информации объективно, что и требовалось доказать.

Теперь мы, кажется, готовы к тому, чтобы уточнить понятие "содержание информации". Оно должно быть разбито на две части.

Во-первых, это "информационное значение" сообщения. Оно определяется событиями, генерируемыми в источнике информации, и представляет собой взаимно однозначное соответствие между передаваемыми информационными символами и упомянутыми событиями.
Таким образом, информационное значение объективно и определяется источником информации.

Во-вторых, это "информационный смысл" сообщения. Он субъективен и определяется приемником информации, тем, как приемник "понял" информационное значение в соответствии со своей базовой информацией.

Ясно, что адекватная интерпретация информации происходит тогда, когда информационный смысл совпадает с информационным значением сообщения.
Понятно также, что адекватность интерпретации зависит от "знания" правил расшифровки символов, так называемого тезауруса. (Эти "знания" - аналог "книги сообщений", о которой говорится в анализируемой работе Хазена. В работе "Что есть хаос? Часть вторая: информация" эти "знания" - аналог избыточной и базовой информации.)

Например, если символы, с помощью которых закодирована информация, понятны всему человечеству, то это, наверняка, рисунки художников-реалистов.
Если правила расшифровки известны целой нации, то такие коды - это язык общения между людьми этой нации.
Если шифры (правила расшифровки) известны узкому кругу людей, то мы имеем дело с секретными службами государств или организаций.
Если коды известны только хромосомам человека, то только они могут "общаться" друг с другом, не допуская в свой круг общения чужие хромосомы, например, хромосомы коз, которые не знают эти коды.
Наконец, если коды доступны зародышу некоторого кристалла, то он может "общаться" (в процессе своего роста) только с теми элементами внешней среды, которым этот код "понятен".

В этих примерах используются некоторые термины, заимствованные из живой природы. Это сделано только для наглядности.
Коды неживой природы (например, кристалла) - это соответствующие элементам (атомам) кристалла физические параметры: число единичных связей, на которые способен распределяться заряд атома, величина радиуса силовых полей и пр.
Таким образом, информационные взаимодействия присущи как живой, так и неживой природе. Поэтому и понятие информации должно быть единым для всей природы в целом.

Теперь можно вернуться к третьему пункту нашего диалога.

В цепочке "простейших элементов телевизора или компьютера" информационные символы в зависимости от физического устройства "простейших элементов" кодируются разными способами: величиной электрического напряжения, двоичными числами, токовыми посылками, участками намагничивания магнитных поверхностей, и т.д. Поэтому при переходе от одного "простейшего элемента" к другому, разумеется, происходит перекодировка символов в соответствии с особенностями устройства элемента. И если в информационной цепочке один элемент является источником информации, а следующий элемент - приемником, то, разумеется, случайные события, рождаемые в источнике, обладают определенными "признаками, по отношению к которым возникает неопределенность". Но это не имеет никакого отношения к суммарной цепи передачи информации от первичного источника. В суммарной информационной цепи неопределенность всегда относится к первичному источнику информации, а все промежуточные звенья представляют собой простую перекодировку символов, принадлежащих к одному и тому же информационному классу. То есть информационное значение сообщения сохраняется в любом элементе цепи, и подсчет количества передаваемой информации через всю цепь должен проводиться по классической формуле Шеннона без учета каких бы то ни было промежуточных "признаков". Эти "признаки", относящиеся к виду, энергетическому носителю и т.п. информационных символов не имеют никакого отношения ни к информации, которую переносят символы, ни к целям, которые ставит перед собой человек.


Можно было бы этот диалог продолжать. Потому что в анализируемой работе есть и другие сомнительные положения. От повторов уже разобранных до набора не связанных друг с другом терминов. Как, например, можно понимать набор слов: "вероятность переданного сообщения у приёмника после приёма сигнала" в предложении "Устранение неопределённости выражается тем, что вероятность переданного сообщения у приёмника после приёма сигнала возрастает и становится р1"? (Ранее автор определил р1 как "вероятность наступления известного заданного события после приёма сообщения". Но эта вероятность всегда равна нулю или единице!). Можно надеяться, что подобное изложение мысли не есть "струя скунса", выпущенная для того, чтобы "оппонент постеснялся потребовать пояснений" (здесь использована удачная терминология автора, взятая из его другой статьи). Скорее всего, это просто небрежность в изложении мысли (возможно, верной).
Однако разумней диалог закончить и рассмотреть пример передачи информации. Этот пример прояснит суть вопроса о том, что есть информация, настолько, что ответ на него станет однозначным.


Вначале сформулируем следующую аксиому.

Если нечто обладает мерой, то это нечто существует только тогда, когда его мера не равна нулю.

Применительно к понятию информации эта аксиома утверждает, что если количество информации равно нулю, то нет и самой информации.

Теперь рассмотрим пример .

Пусть есть некоторый материальный источник информации, способный генерировать информационные сообщения.
Пусть есть некоторый материальный приемник информации, способный принимать информационные сообщения.
Пусть между источником и приемником информации существует материальный канал связи, который способен без искажений передавать символы информации от источника к приемнику.
Пусть, наконец, от источника информации к приемнику передается информация следующего содержания: "мама моет раму".

Всегда ли в этой фразе содержится одинаковое количество информации?
Оказывается, что в любом конкретном сообщении (в частности, во фразе "мама моет раму") может находиться разное количество информации - от нуля до очень больших величин. И зависит это только от величины энтропии источника сообщений. Рассмотрим это положение подробней.

Пусть источник сообщений сломан, и может только то и делать, что посылать приемнику символы: "мама моет раму". Приемник неоднократно получал эту фразу (скажем, регулярно через минуту в течение вот уже ста лет). Спрашивается, принимает ли в этом случае приемник информацию оговоренного выше содержания? Нет, конечно. Ведь нет никакой неопределенности в том, что будет принято в следующую минуту, значит, нет и приема информации. Информация есть лишь тогда, когда до ее приема существует некоторая неопределенность в том, что будет принято (точнее: принимаемый символ содержит информацию только в том случае, если этот символ "выработан" источником случайно с той или иной степенью вероятности). Сам прием конкретных символов устраняет эту неопределенность. И количество принимаемой информации равно при этом, как показал Шеннон, количеству устраненной неопределенности (энтропии источника). Если же заранее ясно, что будет принято (точнее: если источник передает не случайные символы), то в принятом сообщении информации нет (более точно: в принятом сообщении нет информации указанного содержания; но есть информация иного содержания, например, об исправности канала связи и пр.).

В связи со сказанным, обратим внимание на то, что единственный критерий наличия информации в принимаемых символах - случайность их выработки источником информации - одинаково справедлив как в случае живой, так и неживой природы. И, очевидно, этот критерий исключает из определения понятия информации (ее количества) любые атрибуты приемника информации, в частности, цели, которые он перед собой ставит.
Если источник сообщений исправен и может передавать кроме фразы "мама моет раму" еще и другие сообщения, то количество принимаемой информации в указанной фразе уже не будет равным нулю. Это количество зависит от источника сообщений, от того, насколько много фраз он может передать, от его энтропии. Если от источника можно ожидать миллиарды и миллиарды возможных сообщений, значит, в переданной им фразе "мама моет раму" содержится много информации. Если же источник способен передать всего две-три фразы, то в его сообщении "мама моет раму" содержится мало информации.
Таким образом, количество принятой информации зависит только от вероятности приема того или иного символа, но не от того, какой символ был принят реально, в каком состоянии находится приемник информации, что он "знает" или какие цели ставит перед собой.

Отметим в связи со сказанным два момента.
Первый. Вероятность объективна и не зависит от состояния приемника. От него зависит лишь знание или незнание этой вероятности.
Второй. "Знание" приемника, его тезаурус, не влияет на вероятность переданного сообщения, то есть на передаваемую информацию, но существенно влияет на ее прием. При нулевом тезаурусе (базовой информации приемника) информация принята (опознана) быть не может.

Как же наглядно представить себе две ситуации, характеризуемые приемом одной и той же фразы "мама моет раму", но отличающиеся друг от друга тем, что в этой фразе содержится разное количество информации?
Наглядно можно нарисовать себе следующую картину. Для приема любого из возможных сообщений необходима память, тем большая, чем больше количество возможных сообщений. Эта память в некотором роде эквивалентна энтропии источника и определяет количество информации, которое может быть принято. Например, если может быть принят только один из русских символов (букв), то требуется память не более 5 бит (25=32 буквы) на один символ. Если же дополнительно возможен еще прием и других, символов (в американской стандартной кодировке символов для компьютерных технологий, например, число таких символов равно 256), то понадобится память в 8 бит (28=256).
Крайний случай полного отсутствия информации во фразе "мама моет раму" означает при этом просто "игру природы": приемник получил символы, совершенно случайно совпавшие с конфигурацией его базовой информации. Это точно так же, как, обнаружив, например, наскальный узор, сотканный природой, мы можем "видеть" в нем деяние рук человека, если только этот узор совпал случайно с имеющимся в нашей памяти образом. На самом деле узор, случайно созданный природой, не несет в себе никакой информации о рукотворных деяниях древних людей. Точно так же не несет в себе информации фраза: "мама моет раму" сломанного источника сообщений.

Итоги

  1. Информация - это устраненная неопределенность источника сообщений, состоящая из трех компонент:
    • информационное сообщение (случайная и упорядоченная составляющие, из которых при оптимальном кодировании символов только случайная часть имеет информационную емкость, не равную нулю),
    • избыточная информация (упорядоченная структура источника),
    • базовая информация (упорядоченная структура приемника).
  2. Информация имеет меру (количество) и содержание.
  3. Количество информации определяется энтропией источника сообщений и относится к случайной части информационного сообщения.
  4. Содержание информации имеет две стороны: значение и смысл.
  5. Информационное значение сообщения является объективным, определяется случайными событиями, происходящими в источнике информации, и представляет собой взаимно однозначное соответствие между передаваемыми информационными символами и упомянутыми событиями.
  6. Смысл является субъективной стороной содержания информации. Он определяется приемником путем интерпретации сообщения в соответствии с базовой информацией, имеющейся в приемнике.
  7. Адекватная интерпретация информации - такая интерпретация, когда смысл совпадает со значением.

В заключение хотелось бы отметить, что тема, связанная с понятием информации, содержит в себе еще очень много интересных вопросов.

Например,

  • пролегает ли водораздел между живым и мертвым по тонкой грани механизма адекватной интерпретации информационных символов?
  • Является ли интерпретация информации неким механизмом перехода от причины к следствию?

Июнь 2004


 Ваша оценка:

Популярное на LitNet.com Л.Джейн "Чертоги разума. Книга 1. Изгнанник "(Антиутопия) Д.Маш "Золушка и демон"(Любовное фэнтези) Д.Дэвлин, "Особенности содержания небожителей"(Уся (Wuxia)) Д.Сугралинов "Дисгардиум 2. Инициал Спящих"(ЛитРПГ) А.Чарская "В плену его демонов"(Боевое фэнтези) М.Атаманов "Искажающие Реальность-7"(ЛитРПГ) А.Завадская "Архи-Vr"(Киберпанк) Н.Любимка "Черный феникс. Академия Хилт"(Любовное фэнтези) К.Федоров "Имперское наследство. Забытый осколок"(Боевая фантастика) В.Свободина "Эра андроидов"(Научная фантастика)
Связаться с программистом сайта.

Новые книги авторов СИ, вышедшие из печати:
Э.Бланк "Колечко для наследницы", Т.Пикулина, С.Пикулина "Семь миров.Импульс", С.Лысак "Наследник Барбароссы"

Как попасть в этoт список
Сайт - "Художники" .. || .. Доска об'явлений "Книги"