Шамис Александр Львович : другие произведения.

Перспективы моделирования мышления

Самиздат: [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Обзоры] [Помощь|Техвопросы]
Ссылки:


 Ваша оценка:

   Перспективы моделирования мышления
   А.Л.Шамис
  Компания ABBYY,
  базовая кафедра ФИЗТЕХ
  
   Разделы статьи:
   Кибернетика
   Бионика
   Искусственный интеллект
   Распознавание образов
   Формальные нейронные сети
   Может ли машина мыслить
   Искусственный интеллект - миф или реальность?
  
   Работы, направлявшиеся на понимание и автоматизацию (имитацию) мышления, велись под разными флагами. Основные из них это кибернетика, бионика, роботы, искусственный интеллект, распознавание образов и формальные нейронные сети.
  КИБЕРНЕТИКА
   Кибернетика задумывалась как наука об общих принципах управления в технике, природе и обществе с ориентацией на объяснение принципов функционирования живых систем. Однако, кибернетика не стала наукой, имеющей свой особый предмет и метод исследования. Причина этого, в первую очередь, определяется тем, что принципы управления в технике природе и обществе частично совпадают, но во многом, причем в своих важнейших аспектах, существенно отличаются. Поэтому исследование принципов работы живых систем должно основываться в первую очередь не на выяснении сходства, а наоборот на понимании различия между живым и не живым. Слово кибернетика сейчас чаще всего используется как родовое понятие для разных научных направлений, объединяемых тем, что они занимаются получением, обработкой, передачей, хранением и использованием информации.
   Содержательная часть кибернетики, предложенной Норбертом Винером в 1948г., состояла в попытке обобщения понятия управления и в провозглашении единства (схожести) принципов и процессов управления в технике, живой природе и обществе. Утверждалось, что в живой природе реализуются те же принципы управления, что и в технике, а именно, управление по отклонению на основе отрицательных обратных связей и управление по возмущению - схема стимул-реакция (т.е. рефлексы).
   Эти представления хорошо сочетаются со сформулированным И.П.Павловым общим принципом поведения живых организмов, звучащем как "уравновешивание со средой". Эти же представления легли в основу концепций гомеостаза и гомеостата (Эшби), поддержания устойчивости за счет сохраняющих реакций на воздействия среды (А.Ляпунов), а также в основу многочисленных как теоретических, так и технических моделей поведения и мышления, строящихся по схеме стимул - реакция.
   В живом организме на подобном автоматном уровне не осознанно, без участия мышления осуществляется значительная часть работы. Работа внутри клетки управляется генетическим кодом, работа внутренних органов не выходит на уровень сознания и управляется вегетативной нервной системой. Простое рефлекторное или градиентное поведение выходит на уровень сознания, управляется головным мозгом, но мышления не требует. Все эти процессы могут попадать в исходную сферу кибернетики.
   За пределы этой сферы выходит осознанное целенаправленное поведение, для которого необходимы активность и требующие мышления целеполагание, предвидение, планирование и решение многоэкстремальных задач. За пределы исходной сферы кибернетики выходят такие функции мышления, как целостное целенаправленное восприятие и когнитивное мышление. Тем более за пределы исходной сферы кибернетики выходит и требует творческого мышления решение как репродуктивных, так и созидательных творческих задач.
   Провозглашение общих принципов кибернетики имело как положительное, так и отрицательное значение. Положительное значение состояло в том, что кибернетика подтолкнула ученых, и в первую очередь представителей точных наук, к исследованию и моделированию информационных процессов, связанных с поведением, восприятием и мышлением. Математики и инженеры стали интересоваться физиологией и психологией. Начались попытки проведения комплексных междисциплинарных исследований.
   Отрицательное значение провозглашения общности принципов управления состояло в том, что на этой основе часто упрощались (и даже примитивизировались) представления о живом и в особенности представления о сознательном поведении животных. Обычно не рассматривалось или отодвигалось на задний план принципиальное различие между живым и неживым. Излишнее внимание уделялось (а иногда уделяется и сейчас) гомеостазу, обратным связям, устойчивости, схеме стимул-реакция, проблеме "уравновешивания со средой", т.е проблемам, не имеющим отношения к сознанию и мышлению. В то же время в рамках исходных кибернетических представлений остаются в стороне или уходят на второй план аспекты устойчивого неравновесия (Э.Бауэр), активности, осознанной целенаправленности и творческого мышления.
   Кроме того, особенно на первых порах с энтузиазмом обсуждался вопрос о сходстве между устройством мозга и устройством вычислительной машины. Появлялась масса статей и книг, таких как, например, "Мозг как вычислительная машина" (Джордж), "Конструкция мозга" (Эшби), "Алгоритмы разума" (Амосов).
   В начале работ по кибернетике часто в разных аспектах проводились даже прямые параллели между мозгом и вычислительной машиной. Так очень часто, сравнивая эффективность работы мозга и вычислительной машины, в качестве определяющего различия говорили, а иногда и сейчас говорят, о том, что ЭВМ - это последовательный вычислитель, а мозг - огромный, включающий 140 млрд. нейронов, параллельный. Однако, уже давно совершенно очевидна неправильность такого поверхностного сравнения. Говорить о том, что мозг это мощный вычислитель и сопоставлять процессы, которые происходят в человеческом мозге, с операциями вычислительной машины нельзя. Это совершенно разные процессы.
   Мозг и вычислительная машина решают свои задачи по-разному. Мозг вычислителем не является. Тем не менее, до сих пор иногда возникают работы, в которых проводятся параллели между мозгом и вычислительной машиной или говорится (как об открытии) о том, что мозг и вычислительная машина работают по-разному, хотя в этом уже давно можно не сомневаться.
  БИОНИКА
   Бионика инициировалась кибернетикой. Если одной из основных идей кибернетики Винера была идея попытаться понять работу живых систем управления с использованием знаний о принципах автоматического управления, реализуемых в технических системах, то бионика предполагала реализацию противоположной схемы. Общая цель бионики формулировалась как перенос в технику "изобретений" природы.
   Одной из наиболее важных задач бионики считалось использование в вычислительной технике знаний из области нейрофизиологии мозга. Однако достаточно быстро выяснилось, что переносить из нейрофизиологии в вычислительную технику нечего, при этом не только потому, что физиология не располагает достаточной конструктивной и целостной информацией о работе мозга, но и попросту потому, что эта информация вычислительной технике не нужна. Современная вычислительная машина на мозг не похожа. Еще раз подчеркнем, что устройство и принципы работы современной вычислительной машины не имеют ничего общего с устройством и принципами работы мозга.
   Кибернетика и бионика замышлялись как междисциплинарные дисциплины. Однако, продуктивное взаимодействие между физиологами и инженерами не получилось. Совместные исследования в основном остались лозунгом. (Выдвинутый в последнее время сходный лозунг - это система НБИКС). Тем не менее, безусловно очень полезным было то, что внимание инженеров и математиков было привлечено к проблемам, которые до этого считались исключительно делом психологов и физиологов. Это привело к многочисленным попыткам применения к описанию мозга и мышления как формальных аналитических средств, так и средств программного или технического моделирования. Теории мышления на этой основе построить не удалось, но многие работы оказались полезными для продвижения в направлении общего понимания проблем.
   ИСКУССТВЕННЫЙ ИНТЕЛЕКТ
   При возникновении научного направления "Искусственный интеллект" в 1955 г. на фоне бурного начального развития вычислительной техники предполагалось, что программное решение так называемых интеллектуальных, чаще всего прикладных задач даст возможность сформулировать некие обобщения и построить универсальный машинный интеллект, или, что то же самое, универсальное машинное мышление. Основатели направления прогнозировали относительно короткие сроки - максимум в пределах 20го века. Однако, научное направление, которое можно назвать Алгоритмический искусственный интеллект, не создало пока еще ничего похожего на активное творческое человеческое мышление.
   Так не стали интеллектуальными роботы. Они используются в программируемых технологических операциях, например таких, как покраска автомобиля, либо как игрушки. Их обучение и поведение, как и 40 лет назад, не идет дальше схемы стимул-реакция или динамический стереотип. Алгоритмы принятия решения в этих устройствах просты. Восприятие среды формально ограничено. Проблема анализа зрительных 3х-мерных сцен еще очень далека от эффективного решения. Прогресс основывается не на понимании и реализации функции мышления, а фактически определяется только увеличивающейся мощностью вычислительных средств.
   То же самое относится и ко многим другим задачам. В частности, сейчас машины прекрасно играют в шахматы. Практический уровень игры машины сопоставим с уровнем игры чемпиона мира. Машина решает эту задачу за счет мощных вычислительных возможностей в основном перебором и сравнением позиций с использованием как формальных, так и эвристических правил оценки.
   Если задача машинной игры в шахматы поддалась "силовому" решению, то успех в решении многих других задач практически отсутствует. Так не был реализован японский проект ЭВМ 5-го поколения, направлявшийся на решение проблемы автоматизированного программирования, а также на создание "дружелюбного " интерфейса в первую очередь на основе естественных зрительных и речевых форм связи между человеком и компьютером. Выяснилось, что для реализации этого проекта недостаточно построить "глаз" и"ухо". Оказалось, что нужно еще и выяснить, как работает мозг. (Впрочем, это было понятно многим с самого начала)
   Примерно такие же очень сдержанные оценки можно сделать и в отношении результатов программного решения и других "интеллектуальных" задач, например, таких как восприятие естественной среды, понимание естественного языка, экспертные системы, представление знаний, автоматическое управление сложными системами.
   Можно сказать, что направление работ "Искусственный интеллект" остается по сей день в основном прикладным направлением, ориентированным на формальное решение сложных "информационных" задач и опирающемся на все увеличивающуюся мощность вычислительных средств. Что касается понимания и моделирования мышления, то алгоритмический искусственный интеллект является очень слабым эмпирическим направлением исследований этой проблемы, объединяющим под общим названием весьма разнообразные разрозненные работы. Принципиального теоретического и практического прогресса не произойдет, пока это направление не станет ориентироваться на какие-то целостные теории работы мозга и пока не будет поставлен и сформулирован хотя бы гипотетический ответ на вопрос: что такое мышление и как оно работает? К сожалению, обнадеживающих перспектив этого в рамках направления "Алгоритмический искусственный интеллект" в настоящее время не просматривается.
   Сумма решенных, безусловно часто практически полезных так называемых интеллектуальных задач, мышления не образует. В то же время, анализ проблем (и неудач), возникающих при попытках программного решения таких задач приводит к выводу, что для мышления необходимо построение системы знаний в виде иерархической модели среды. Эта модель должна реализовывать умозрительное моделирование, предвидение и управлять активным целенаправленным восприятием, целенаправленным обучением и целенаправленным поведением, в том числе и решением многоэкстремальных задач [6]. Однако результаты решения интеллектуальных задач не дают каких-либо предпосылок для конструктивных обобщений и конструктивного понимания феномена мышления. Особенно это относится к результатам, получаемым "силовым" (переборным) методом.
   Кроме того, представляется, что для моделирования мышления важно понять не только то, что мозг делает в процессе решения задач, но и то, как он это делает. Важно понять, что работу механизмов человеческого мышления от работы обычных компьютерных программ отличают в первую очередь активность, сознание, свобода воли, эмоциональная оценка, творчество. Многие считают, что эти функции живого мозга, и в первую очередь сознание, неалгоритмичны, т.е. программно не реализуемы. (К этому вопросу мы еще вернемся).
   РАСПОЗНАВАНИЕ ОБРАЗОВ.
   К проблематике искусственного интеллекта примыкают работы по распознаванию образов. С самого начала развития кибернетики машинное узнавание сложных объектов и, чаще всего, изображений обычно выбиралось для исследования и моделирования интеллекта и, в частности, таких составляющих мышления, как построение системы обобщенных знаний о среде и использования этих знаний в процессе принятия решений. Восприятие зрительной информации представлялось наиболее удобным для компьютерного моделирования мышления и, в то же время, наиболее практически значимым.
   Сразу было очевидно, что для полного решения задачи машинного восприятия необходимо "интеллектуальное" распознавание или распознавание "c пониманием". В то же время, практическая ориентация работ в области автоматического анализа информации, стремление к технической реализуемости привели к серьезной трансформации проблемы. Оказалось практически почти вынужденным упрощение рассмотрения процесса восприятия путем сведения его к классификации по признакам простых статических объектов, рассматриваемых по отдельности. В результате традиционное распознавание образов, с одной стороны, не решает задачу машинного восприятия сложной внешней информации и, с другой стороны, не является серьезным инструментом для моделирования интеллекта. И тем не менее распознавание образов не только при своем зарождении, но часто и сейчас считается важным шагом в понимании и моделировании мышления.
   В основе живого восприятия лежит принцип целостности и управление процессом с понятийного уровня модели среды. Классическое распознавание зрительных образов обычно организуется как последовательный процесс, разворачивающийся снизу-вверх, т.е. от изображения к распознаванию, при отсутствии управления восприятием с верхних понятийных уровней. (То же самое в принципе относится и к распознаванию объектов не зрительной модальности.) Этапу распознавания предшествует этап получения априорного описания входного объекта. Операции выделения элементов этого описания, например признаков, или структурных элементов, выполняются на изображении локально, части изображения получают независимую априорную интерпретацию, то есть отсутствует целостное восприятие, что, в общем случае, может приводить к ошибкам - рассматриваемый изолированно фрагмент изображения часто можно интерпретировать совершенно по-разному в зависимости от гипотезы восприятия, т.е. от того, какой целостный объект предполагается увидеть.
   Важным обстоятельством, отличающем распознавание от живого восприятия, является и то, что традиционные подходы ориентированы на распознавание объектов, рассматриваемых по отдельности. Этапу собственно распознавания обычно должен предшествовать этап сегментации (разбиения) изображения на части, соответствующие изображениям отдельных распознаваемых объектов. Методы априорной сегментации обычно используют специфические свойства входного изображения. Общего решения задачи предварительной сегментации не существует. За исключением самых простых случаев, критерий разделения чаще всего не может быть сформулирован в терминах локальных свойств самого изображения, т.е. до его распознавания.
   Практическое решение этой проблемы часто основывается на переборе вариантов сегментации, что совершенно не похоже на то, что делает мозг человека или животного в процессе целостного целенаправленного восприятия. Вспомним слова Сеченова - мы не слышим и видим, а слушаем и смотрим, т.е. восприятие управляется с понятийного уровня. Для такого активного восприятия "с пониманием" необходимы целостные представления объектов всех уровней - от отдельных частей до полных сцен и интерпретация частей только в составе целого.
   Таким образом, недостатки большинства традиционных подходов к решению задачи распознавания вытекают из отсутствия целостности восприятия, отсутствия целенаправленности и из последовательной однонаправленной организации процесса снизу-вверх, или от изображения к распознаванию. Традиционные в первую очередь признаковые системы распознавания основываются на последовательной организации процесса распознавания и классификации объектов, рассматриваемых по отдельности. Обязательными этапами процесса распознавания в этих системах является априорная сегментация (выделение отдельных объектов) и априорное означивание (выделение признаков или структурных элементов). Эффективно решать задачи восприятия сложной информации эти системы не могут вне зависимости от того, реализуются ли они на формальных нейронных сетях или с помощью методов теории распознавания образов. Это, как уже говорилось, происходит, главным образом, по причине отсутствия целостности и целенаправленности восприятия, отсутствия целостности в описаниях (эталонах) распознаваемых объектов и вследствие однонаправленной "снизу-вверх" последовательной организации процесса распознавания. По этой же причине такие системы распознавания образов мало что дают для понимания живого восприятия и, тем более, процесса мышления.
   Более подробно эти вопросы рассматриваются в [6,7]. В [6] описывается программная система чтения рукописных символов FineReader - рукопись , основывающаяся на принципах целостности, целенаправленности, использовании полных структурно-метрических эталонных описаний, использовании контекста и организации процесса в виде выдвижения и проверки гипотез.
  
   ФОРМАЛЬНЫЕ НЕЙРОННЫЕ СЕТИ
   Распознавание возможно также с использованием окутанных чуть ли не мистическим туманом искусственных или формальных распознающих нейронных сетей (ФРНС). Иногда их рассматривают даже как какой-то аналог мозга. В последнее время в текстах просто пишут "нейронные сети", опуская прилагательные искусственный или формальный. На самом деле, ФРНС - это чаще всего либо просто признаковый классификатор, строящий разделяющие гиперплоскости в пространстве признаков, либо растровый распознаватель, реализующий поточечное сопоставление распознаваемого объекта с эталонами.
   Использовавшийся в признаковых распознавателях классический формальный нейрон - это сумматор с пороговым элементом, подсчитывающий сумму произведений значений признаков на некоторые коэффициенты, являющиеся не чем иным, как коэффициентами уравнения разделяющей гиперплоскости в пространстве признаков. Если сумма меньше порога, то вектор признаков находится по одну сторону от разделяющей плоскости, если больше - по другую. Вот и все. Кроме построения разделяющих гиперплоскостей и классификации по признакам никаких чудес.
   Введение в формальном нейроне вместо порогового скачка от -1 к 1 плавного (дифференцируемого), чаще всего сигма-образного, перехода ничего принципиально не меняет, а лишь позволяет использовать градиентные алгоритмы обучения сети, то есть нахождения коэффициентов в уравнениях разделяющих плоскостей, и делать "размазывание" разделяющей границы, присваивая результату распознавания, то есть работе формального нейрона вблизи границы, оценку, например, в диапазоне от 0 до 1. Эта оценка, в определенной степени может отражать "уверенность нейрона" в отнесении входного вектора к той или иной из областей пространства признаков. В то же время, эта оценка, строго говоря, не является ни вероятностью, ни расстоянием до разделяющей гиперплоскости. (Заметим, что введение плавного перехода уменьшает "физиологичность" формального нейрона).
   Сеть из формальных нейронов может также аппроксимировать плоскостями нелинейные разделяющие поверхности и объединять по результату несвязанные области пространства признаков. Это и делается в многослойных сетях. В многослойных сверточных нейронных сетях помимо этого при обучении строится иерархия структурных отображений, использующихся как признаки.
   Во всех случаях, признаковая ФРНС - это классификатор, строящий разделяющие гиперплоскости и выделяющий области в фиксированном пространстве признаков
  (характеристик).
   Кроме того, помимо признаковых распознавателей на формальных нейронах могут строиться растровые или ансамблевые распознаватели. Идеологически такие системы восходят к модели Хебба [9] и к некоторым вариантам классического перцептрона Розенблатта [5]. В растровых распознавателях в нейронной сети выделяются подмножества нейронов (ансамбли), соответствующие разным распознаваемым объектам. При этом сохраняются все недостатки растровых распознавателей, когда для распознавания используется не признаковый эталон, а эталон, являющийся поточечно заданным стандартным изображением. Построение обобщений в таких системах затруднено. В этом отношении растровые распознаватели значительно хуже признаковых. Правда, у растровых могут быть и некоторые преимущества по сравнению с признаковыми распознавателями. Главные преимущества это, во-первых, возможность распознавания объекта по его части, т.е. ассоциации по сходству, и во-вторых, принципиальная возможность реализации парных ассоциаций по времени.
   Обучение в признаковых формальных нейронных сетях основывается на изменении весов связей между нейронами. Если распознаваемых классов всего два, то в зависимости от того как представлены объекты в пространстве признаков, на нейронах может строиться одна или несколько разделяющих гиперплоскостей.
   При большом числе классов входных объектов и/или при их сложном устройстве и соответственно при их сложном отображении в пространстве признаков современная формальная нейронная признаковая система строится без представления о разделяющих гиперплоскостях и, вообще, без какого-либо представления об алгоритме ее работы, а как "черный ящик". Работа такой системы вписывается в схему стимул-реакция. Это определяется с самого начала алгоритмом обучения формальной нейронной сети.
   При обучении итерационным градиентным методом, например методом обратного распространения ошибки, настраиваются изменяемые параметры сети. Обычно это величины синаптических проводимостей связей и параметры переходных функций нейронов. Обучение проводится по формируемым учителем обучающим выборкам. Критерий итерационных изменений параметров сети это величина и направление изменений несоответствия между ответом системы и необходимым задаваемым результатом. Таким образом, с помощью итерационной часто очень длительной настройки нейронной сети достигается задаваемое соответствие между классами входных объектов и требуемым выходом системы. (Трудно представить, что нечто подобное может происходить в реальной нейронной сети.)
   Что может демонстрировать такая система? Только распознавание сложных входных ситуаций и формирование реакций на эти ситуации. Иногда говорят: вот сделаем большую сеть, например из миллиарда нейронов, и она начнет проявлять элементы мышления. На самом деле такая, по сути автоматная система, сможет только обрабатывать большое число обучающих выборок и, соответственно, отвечать на большое число вопросов. В такой системе при обучении могут устанавливаться связи между сложными многопараметрическими классами входных стимулов и сложными многопараметрическими ответными реакциями. Однако, в такой системе нельзя реализовать активного целенаправленного процесса мышления и таких его видов как перцептивное мышление, когнитивное мышление, решение многоэкстремальных задач поведения, постановка и решение абстрактных задач, творческое мышление [6,7]. В последнее время стали популярны так называемые сверточные нейронные сети. При описании этих сетей говорится, что в них автоматически строится иерархия признаков. Это не точно. В сверточных сетях подобно рецептивным полям живого зрительного анализатора сначала выделяются не признаки, а элементарные структурные элементы, которые затем укрупняются. Выполняется послойная операция укрупнения с привязкой к положению на входном растре. Учет положений на растре в определенном смысле может заменять необходимые в полных структурных описаниях пространственные отношения. Главным инструментом обучения, в конечном счете, является алгоритм обратного распространения ошибки. Полученные структурные элементы в принципе могли бы входить в полные отображаемые структурные описания, хотя на самых верхних уровнях строящейся модели четкая отображаемость теряется. ( То же самое происходит и при построении структурной модели в зрительном анализаторе человека.) При обучении сверточной нейронной сети отсутствие иерархии частное общее компенсируется тем, что на вход последовательно подается очень много вариантов входного образа. Соответственно в системе, по-видимому, строится много отображений образа (аналог - кластеризация). Эти отображения (кластеры) связываются с требуемым выходом. Называть такое распознавание признаковым неверно, поскольку строящиеся в системе эталоны правильнее называть структурными. Сверточные нейронные сети являются частным случаем систем глубокого обучения. О системах глубокого обучения часто говорится как о революции в искусственном интеллекте. При этом нужно понимать, что искусственный интеллект это далеко еще не искусственный разум. Системы искусственного интеллекта дают возможность эффективно решать очень многие практические задачи. Однако, о системах глубокого обучения, в том числе и о сверточных нейронных сетях, можно говорить лишь как о революции в решении проблемы автоматического машинного восприятия. Эти системы отчасти и очень приблизительно моделируют, хотя и далеко не полностью, живое восприятие. Строящаяся в мозге модель среды включает две иерархии - часть целое и частное общее. Иерархия часть целое обеспечивает процессы, аналогичные синтезу и анализу. Иерархия частное общее обеспечивает процессы, аналогичные дедукции и индукции. Современные сверточные нейронные сети пока еще ограничиваются моделированием иерархии часть целое. Процесс распознавания в этих сетях однонаправленный - от входа к выходу. Важная особенность мозга это не только построение целостной модели среды с двумя иерархиями - часть целое и частное общее, но и реализующиеся в ней свойства активности и целенаправленности. Эти свойства являются основными как в процессах мышления, так и в процессах обучения. Насколько мне известно, эти вопросы при разработке современных моделей нейронных сетей не ставятся. Итак, основополагающие принципы живого восприятия это целостность, инвариантность, целенаправленность и активность.
   Для полного моделирования мышления необходимо не ограничиваться программно-алгоритмическим уровнем решения задач, а очень важно, и, может быть, необходимо, понять как работают нейронные механизмы живого мозга. В связи с этим возникает вопрос: а не являются ли формальные распознающие нейронные сети если и не решением проблемы моделирования нейронных механизмов мозга, то хотя бы важным шагом в этом направлении. Представляется, что, к сожалению, ответ должен быть отрицательным. В отличие от активной живой нейронной сети обычная формальная распознающая нейронная сеть это пассивный признаковый или растровый распознаватель со всеми недостатками традиционных распознавателей.
   Предположение о том, что информационной единицей живой нейронной сети является ансамбль нейронов, объединенных возбуждающими положительными обратными связями, введено в качественной модели Хебба [9]. По этой модели предполагается, что возбуждающие связи между нейронами ансамбля образуются и усиливаются при их одновременном возбуждении (срабатывании) за счет внешнего воздействия. Последовательное возбуждение ансамблей Хебб назвал фазовой последовательностью. Предполагается, что активация фазовой последовательности
  происходит при внешнем последовательном возбуждении ансамблей. Между ансамблями нейронов при обучении должны устанавливаться возбуждающие связи, за счет которых фазовая последовательность может воспроизводиться и без внешних воздействий. Таким образом может осуществляться предвидение, основывающееся на прямых парных ассоциациях по времени.
   Сходные по сути представления рассматривались в модели Емельянова-Ярославского [2] , принципиально отличающейся от модели Хебба не только более богатыми свойствами моделируемых нейронов и связей, но и за счет добавления свойства изменения функционального состояния нейронов в зависимости от их возбуждений и использования этой характеристики для получения общего свойства активности сети.
   Модель Хебба была сформулирована еще в 1948 году. Эта гипотетическая качественная модель, т.е. представление о нейронных ансамблях и их простом одноуровневом взаимодействии в пределах "фазовой последовательности", может считаться только самым элементарным начальным и еще очень далеким приближением к теории работы нейронных механизмов мозга при обучении и в процессе мышления.
   Идеи Емельянова-Ярославского безусловно очень интересны. На эти идеи можно ориентироваться при построении каких-то схем активных нейронных сетей. К сожалению, самому автору не удалось получить какие-то убедительные теоретические или экспериментальные результаты.
   Выше уже отмечалось, что для понимания и моделирования мышление необходима постановка и решение таких главных проблем как активность, сознание, свобода воли, эмоциональная оценка, творчество. Возможно, что эти проблемы можно пытаться решить только с их привязкой к нейронным механизмам.
   Как на уровне понимания работы живого мозга, так и на уровне нейронного моделирования, существует также очень много проблем, которые условно можно назвать проблемами второго плана. Выделим некоторые из них. Абсолютно непонятно как в конкретных механизмах живой нейронной сети или на уровне моделирования может реализовываться следующее:
   - создание иерархической модели проблемной среды с иерархиями часть-целое и общее-частное;
   - использование понятийного уровня, т.е. уровня обобщения и укрупнения для управления процессами восприятия, обучения и поведения;
   - запоминание и использование количественных характеристик;
   - запоминание и использование отношений;
   - перебор и сравнение вариантов поведения или решения формальной задачи;
   - решение многоэкстремальных задач;
   - целеполагание и фиксация цели;
   - формирование поддержание и гашение очагов возбуждения;
   - реализация кратковременной и долговременной памяти, в том числе реализация мгновенного запоминания.
   Эти и другие проблемы второго плана, также как и отмеченные выше фундаментальные проблемы, еще очень далеки от конкретного решения. Они не только не решены, но чаще всего даже не ставятся. Таким образом, на уровне формальных нейронных сетей проблема построения модели активного мыслящего мозга не решается. Тем не менее, существующие формальные нейронные сети, наряду с распознаванием образов, часто даже в серьезных работах рассматриваются как основа для построения теории и моделирования мышления. Это происходит потому, что больше попросту не на что опереться. Больше, пока еще, ничего нет.
  
   ЕЩЕ РАЗ О ПРОБЛЕМАХ.
   Алгоритмический искусственный интеллект, распознавание образов и формальные нейронные сети не исчерпывают всех возможных направлений и подходов к пониманию и моделированию мышления. Возможны и другие подходы, основывающиеся на поиске ответов на вопросы о сущности и особенностях живого мышления. Возникающие при этом проблемы уже частично упоминались, кратко отмечаются ниже и более подробно рассматриваются в [7].
   В нейрофизиологии и психологии накоплено очень много экспериментального материала, но целостной конструктивной теории мышления нет. Моделированием мышления с начала развития вычислительной техники и кибернетики в течении многих лет занимались и занимаются очень многие. Однако, реальные как теоретические, так и практические результаты, которые были бы достаточны для того, чтобы стать основой построения полной теории мышления и соответственно искусственных систем мышления, отсутствуют.
   Задача не просто сложна, она помимо необходимости решения многих трудных проблем еще и весьма специфична. Для ее решения не только нужно создать общую конструктивную теорию многопланового активного мышления, но и необходимо понять, чем живое отличается от не живого. Принципиальная необходимость этого до сих пор очень часто не осознается.
   Для того, чтобы построить сравнимое с человеческим полноценное искусственное мышление, нужно получить конструктивное решение в первую очередь таких уже отмечавшихся принципиальных и очень трудных проблем, как сознание, воля, активность, целенаправленность, эмоциональные оценки, творческое мышление. Эти свойства мыслящего мозга условно можно назвать "виталистическими", т.е. специфичными для живых систем. Для решения этих проблем, по-видимому, недостаточно ограничиваться программно-алгоритмическим уровнем. Кроме того, как уже отмечалось, помимо проблем понимания и моделирования основных "виталистических" свойств существует еще очень много сложнейших проблем "второго плана".
   Проблемы сознание, воля, активность, целенаправленность, эмоции и творчество не только далеки от решения, но обычно при попытках моделирования мышления даже не ставятся. Часто априорно считается, что компьютерная реализация этих специфических неалгоритмических свойств невозможна. Однако, это не очевидно. Возможно или нет конструктивное решение всех этих проблем на современном уровне физического знания не известно. Возникает и второй вопрос - насколько необходима реализация всех этих свойств для построения полноценного мышления. Для ответа на эти вопросы нужно иметь строгое или хотя бы качественное определение отмеченных сущностей, также как и определение мышления. Обсуждение "виталистических" проблем с целью их хотя бы приблизительного определения приведено в [7].
  
  
   МОЖЕТ ЛИ МАШИНА МЫСЛИТЬ ?
   Вопрос может ли машина мыслить породил в 60х годах прошлого века бурную дискуссию между физиками (технарями) и лириками (гуманитариями). Физики, естественно, утверждали, что поскольку мозг материален, то и моделировать, т.е. реализовать в машине, все проходящие в нем процессы можно. Позиция лириков в основном состояла в том, что машина мыслить не может, потому что не может мыслить никогда. Эта дискуссия особого смысла не имела, поскольку не был определен предмет спора. До сих пор нет точного общепринятого определения жизни и ее отличия от машины. Нет и строгого определения мышления.
   Я думаю, что определение жизни может опираться на принцип устойчивого неравновесия Бауэра[1] : все и только живые системы никогда не бывают в равновесии и исполняют за счет своей свободной энергии постоянно работу против равновесия, требуемого существующими физическими и химическими условиями. В соответствии с этим принципом не только необходимым, но и достаточным признаком (свойством) живого в первую очередь можно считать активно поддерживаемое термодинамически неравновесное состояние. Исходя из этого, на некотором уровне приближения определение жизни может быть сформулировано еще и следующим образом. Жизнь это активная самоорганизующаяся система, непрерывно активно поддерживающая свою неравновесность, целостность и качественную определенность на основе внутренней работы и целенаправленного обменного взаимодействия с окружающей средой.
   Подытоживая к этому важно добавить то, что уже отмечалось. Неживые системы находятся либо в состоянии равновесия, либо в движении к состоянию равновесия. Этим законом определяются все формы движения материи кроме биологической. Живые системы постоянно находятся в обладающем свободной энергией активно поддерживаемом неравновесном состоянии. Достигается это только во взаимодействии со средой. Биологическая форма движения материи это движение, активно направленное против термодинамического равновесия. Равновесие для живого это смерть.
   Таким образом, жизнь это постоянная борьба со смертью. Эта борьба есть основное и необходимое свойство и сущность жизни. Результатом этой борьбы (если она успешна) является непрерывное самовосстановление или активная непрерывная самоорганизация, динамически поддерживающая неравновесие и свободную энергию. Все это должно удовлетворять общим принципам открытости, активности, целенаправленности и целостности.
   Существуют и иные представления о самоорганизации. Это, в первую очередь представления, развиваемые в синергетике и основывающиеся на теории диссипативных систем и неравновесной термодинамики Ильи Пригожина [3]. Популярные в последнее время у биофизиков и кибернетиков диссипативные системы Пригожина пассивны и в целом находятся в равновесии со средой. В этих системах диссипация энергии и ее отток в среду компенсируется притоком энергии из среды. Локальная неравновесность в этих системах возникает пассивно при принудительном подводе к ним энергии. Образующаяся при этом свободная энергия выделяется в среду, т.е. диссипирует через тепловой канал. Интерпретировать на этой основе жизненные явления нельзя.
   Диссипативные системы Пригожина можно назвать системами пассивной или принудительной антиэнтропийной самоорганизации. Живые системы это системы активной антиэнтропийной самоорганизации. В отличие от диссипативных систем Пригожина в живых системах неравновесие возникает не принудительно при внешних воздействиях, а является исходным внутренним свойством системы. Создается и поддерживается неравновесное состояние и соответственно свободная энергия живой системы активно и целенаправленно выполняемыми системой внутренней и внешней работой. Эта работа (как внутренняя, так и внешняя) выполняется за счет траты собственной структурной энергии системы. Работа системы, а соответственно и собственная свободная энергия, направляются на восстановление уровня свободной энергии, т.е. на самовосстановление. Таким образом, живые системы диссипативными не являются.
   Строгого общепринятого определения мышления нет. Нет даже полного качественного определения. Поэтому, говоря о мышлении, обычно вынужденно ограничиваются интуитивными представлениями общего характера. Тест Тьюринга, на который часто ссылаются, не только не является определением мышления, но даже не может считаться удовлетворительным тестом, оценивающим мыслит или нет конкретная система, т.е. экзаменуемый участник диалога. Сложный многоплановый процесс мышления не сводится к схеме вопрос - ответ. Отголоски дискуссии 60х с использованием примерно тех же аргументов возникают и в наше время, хотя особого смысла в этой дискуссии по-прежнему нет.
   Ставя вопрос "может ли машина мыслить" обычно подразумевают полное человеческое мышление. Таким образом, нужно ввести какое-то определение такого мышления. Попробуем сделать это на внешнем уровне и в некотором приближении.
   Будем считать мышлением активный процесс, направленный на:
  -построение активной иерархической модели среды;
   -реализацию процесса активного целенаправленного восприятия;
  -реализацию процесса управления целенаправленным поведением в многоэкстремальной среде;
  -реализацию процесса активного целенаправленного обучения;
  -решение неалгоритмических задач;
  -решение творческих задач.
   Это очень общее определение можно считать только предварительным. Несколько раз повторенное слово активность подчеркивает, что в полном определении мышления должно говориться не только о том, что мозг делает, но и о том, как он это делает. Уточнение и определенная конкретизация этого определения может основываться и на приведенных в [6,7] описаниях основных процессов мышления, а также на том, что для полного, качественно сравнимого с человеческим мышления нужна реализация таких его составляющих как сознание, воля, активность, эмоции, творчество.
   Как уже говорилось, никаких подходов к моделированию этих принципиальных составляющих человеческого мышления нет. Эти составляющие не имеют, к сожалению, ни точных формальных, ни полных качественных общепринятых определений. Таким образом, можно ли все это практически реализовать в машине, опираясь на существующие научные знания, неизвестно. Однако, интересно поставить вопрос существуют ли теоретические запреты.
   Ответ "да", в первую очередь, обычно основывается на представлении о том, что для мышления необходимо сознание. Сознание не только непонятно, оно еще и кажется бестелесным, не привязанным ни к какой физической структуре. Говоря о неразрывной связи мышления и сознания, чаще всего ссылаются на весьма авторитетное мнение Р.Пенроуза [4]. Что такое сознание Пенроузом точно не определяется, но утверждается, что это неалгоритмично. Творчество тоже считается неалгоритмичным. Остальные принципиальные проблемные составляющие мышления обычно остаются в тени и не рассматриваются. Это не правильно. Активность, целенаправленность и воля не менее важны и их реализация в машине не менее проблематична. Кстати, именно активность наиболее наглядно и убедительно отличает живые системы от не живых.
   Итак, неалгоритмичность сознания якобы является главным препятствием для моделирования мышления. Это действительно непреодолимое препятствие для алгоритмического моделирования на внешнем функциональном уровне, т.е. на том
  уровне, на котором ведутся основные работы в направлении Искусственный интеллект. Часто утверждается, также, что переход при рассмотрении проблемы с внешнего функционального уровня на нейронный ничего не меняет.
   Предполагается, что как устроены и работают нейроны и связи между ними на макроуровне в целом понятно, а именно: нейрон это пассивный суммирующий пороговый элемент, реализующий простую нелинейную передаточную функцию, то есть формирующий на своем выходе сигнал в зависимости от суммы входных сигналов и передающий этот сигнал другим нейронам, но эти вычислимые и алгоритмически реализуемые функции неалгоритмичного сознания и неалгоритмического творчества не объясняют.
   Я думаю, что это рассуждение неверно, поскольку здесь смешиваются внешний функциональный уровень естественной или моделируемой нервной системы, на котором проявляется сознание, и внутренний уровень физических элементов. Возможно, что строго описать и реализовать сознание в виде алгоритма, даже в каком-то приближении, действительно нельзя. Однако, мозг можно моделировать не на функциональном уровне, а как физический объект.
   Надежда на то, что для объяснения и даже почти полного моделирования мышления будет достаточно физического моделирования объединенных в сеть синергических взаимосодействующих нейронов основывается на приведенных в [2,6,7] гипотезах о том, что нейрон не просто пороговый сумматор, а активный элемент, накапливающий и поддерживающий неравновесие, имеющий изменяющееся функциональное состояние, порог срабатывания и связи, изменяющиеся в зависимости от функциональных состояний, параметров и возбуждений связываемых нейронов, реализующий не только пространственную, но и временную суммацию приходящих возбуждений [2,6]. Естественно, это только пример того, что может быть добавлено к свойствам моделируемого нейрона, но эти добавления в любом случае должны ориентироваться на необходимую реализацию свойства активности.
   Все это, в принципе, для каждого отдельного нейрона вычислимо. Но интегральные функции мозга не складываются из функций отдельных нейронов. Интегральные свойства и функции любого целого зависят от свойств элементов и взаимодействий между ними, но алгоритмически эти зависимости не выражаются. Кроме того, внешние функции мозга определяются не отдельными нейронами, а специфически организованной активной нейронной сетью, подверженной к тому же случайным шумовым воздействиям. Основанные на таких представлениях некоторые предварительные и очень приблизительные интерпретации процессов мышления, в том числе и творческого, приведены в [6,7].
   Отрицая возможность компьютерной реализации мышления и ставя сознание на первое место по важности, часто считают достаточным уже упоминавшийся аргумент, состоящий в неалгоритмичности сознания. Вполне возможно, что алгоритм, а соответственно и программу, полноценной реализации сознания построить трудно или вообще невозможно. Более того, мозг и в целом в большинстве своих свойств, связанных с мышлением, не алгоритмичен.
   Это связано с тем, что информация, на основе которой осуществляется мышление, не сводима ни к описанию, ни к алгоритму. Информация в мозге представлена в виде активной иерархической модели среды. На этой модели в процессе мышления разворачиваются сложные многоплановые процессы возбуждающего и тормозящего взаимодействия между смысловыми элементами. Эти в основном параллельные процессы реализуются во взаимодействии как по "горизонтали", то есть. между элементами одного уровня иерархии модели, так и по иерархической "вертикали", то есть двунаправленные взаимодействия по линиям часть-целое и общее-частное.
   Таким образом, то, что делает мозг в процессе мышления, ни реализацией каких-то алгоритмов, ни вычислениями не является. Поэтому полная алгоритмическая программная реализация мышления на внешнем функциональном уровне невозможна. Не делают никаких вычислений и отдельные нейроны. Однако это не значит, что мозг и мышление нельзя моделировать на компьютере. Рекурентно пошагово вычислимые цифровые модели физических объектов и процессов в них можно моделировать на вычислительных машинах с любой задаваемой точностью. В том числе программно моделировать можно и параллельные процессы.
   При конструировании мышления моделируемыми физическими объектами могут быть все отдельные нейроны и связи между ними. Мощность современных вычислительных машин и, тем более, вычислительных машин будущего позволит строить модели, содержащие миллионы, а может быть и миллиарды, нейронов и связей. (Программные модели 60х годов прошлого века имели порядка 100 нейронов, однако некоторые иллюстрации работы нейронной сети на этих моделях получать удавалось[8]).
   Таким образом, программное моделирование мозга как физического объекта и реализуемого мозгом не алгоритмического в целом процесса мышления на уровне нейронов и связей между ними в принципе возможно. При этом для целей моделирования на первых шагах строить сверхсложный специальный компьютер не нужно. Достаточно иметь обычный современный универсальный компьютер с необходимыми вычислительными ресурсами и рекуррентно пошагово вычислимые физические модели элементов мозга - нейронов и связей между ними.
   Здесь есть еще много неопределенного. Возможно, что нам известны, или гипотетически предполагаются, еще не все необходимые для реализации процесса мышления свойства нейронов. Возможно, что наши гипотезы о свойствах нейронов неточны или неверны. Не исключено, что в механизмах мышления кроме нейронов и связей между ними работают и какие-то другие элементы, например, нейроглия. Возможно, что работает пространственное полевое или, например, гуморальное возбуждающее и тормозящее взаимодействие между нейронами. Возможно, что для моделирования нужна информация о каких-то особенностях структуры нейронной сети. Возможно, что в мышлении участвует еще что-то, нам пока еще не известное. Все это может определять направления совместных исследований биологов и инженеров.
   Однако, отрицая возможность компьютерной имитации мышления, нужно логически обосновывать невозможность полного объяснения разума и его составляющих ( сознания, свободы воли, активности, эмоций ) ни на внешнем функциональном, ни на физическом уровне, без введения некоторого неизвестного, а возможно непознаваемого и даже нематериального субстрата. Такой субстрат может иметь любое название, например, даже душа. И все же логического обоснования необходимости души для процесса мышления пока еще нет.
   Возможно, что в искусственной системе нельзя реализовать живое ощущение, являющееся свойством неравновесной живой материи. Соответственно нельзя реализовать раздражимость и живые эмоциональные ощущения. Не исключено, что полное моделирование мозга и мышления возможно только в неразрывном единстве со всей живой системой, обладающей потребностями, целенаправленным поведением, ощущением и эмоциями.
   Однако, является ли это непреодолимым теоретическим запретом моделирования мышления не известно. Поэтому, представляется, что теоретические запреты возможности построения активной творческой мыслящей машины не определены ни на формальном, ни на качественном уровне.
   Правда, создание такой машины (программы) если и возможно, то в очень отдаленной перспективе.
  
   Искусственный интеллект - миф или реальность?
  ( Актуальность проблемы "риск создания машинного интеллекта".)
   Сейчас в прессе и научно-популярных статьях часто обсуждается проблема глобальных рисков, с которыми может столкнуться человечество. Одним из этих рисков называется искусственный интеллект. Предполагается, что "Большой искусственный интеллект" превзойдет по своему уровню интеллект естественный и сможет сам себя улучшать. Прогнозируются довольно близкие сроки. Например, 2030 год, но не
  дальше 2050 года. Все предположения о близких (постоянно отодвигающихся) сроках строятся со ссылкой на якобы имеющиеся успехи и производные развития алгоритмического (программного) искусственного интеллекта, распознавания образов и формальных нейронных сетей.
   Обсуждается, каким будет искусственный интеллект по отношению к человеку - дружественным или не дружественным. В частности, предполагается, что машины с таким интеллектом могут вступить в конкуренцию и борьбу с человечеством. Предполагается, что результат борьбы "Большого искусственного интеллекта" с человеком может быть не в пользу человека.
   Существует международное общественное "Трансгумманитарное движение", одной из главных целей которого является подготовка к появлению Большого искусственного интеллекта и призыв к принятию мер, направленных на то, чтобы машинный интеллект был дружественным.
   Эти проблемы многим представляются весьма актуальными. Особенно на фоне интенсивно развивающихся информационных и коммуникативных технологий, которые часто, особенно на бытовом уровне, путаются с технологиями искусственного интеллекта. Однако, полагаю, что можно вcех успокоить. Обсуждаемая проблема не актуальна.
   Искусственный интеллект сам по себе не будет ни дружественным, ни недружественным. Он будет пассивным. Таким же пассивным, как компьютерная шахматная программа, выигрывающая у чемпиона мира, но не осознающая это и не стремящаяся к этому.
   Кроме того, разрозненные результаты, получаемые в направлении работ, называемом "Искусственный интеллект", включая распознавание образов и формальные нейронные сети, активного мышления не образуют и к полноценному машинному мышлению не ведут. Никаких конструктивных наметок создания Большого искусственного интеллекта в настоящее время не существует. Нет теории работы мозга в процессе мышления и в физиологии. Из всего этого можно сделать вывод, что никакая "точка сингулярности" на кривой развития искусственного интеллекта в районе 2050 года не предвидится.
   Таким образом, еще раз повторим, что проблема "риск создания машинного мышления" не актуальна. Станет ли эта проблема актуальной в будущем? Нет, не станет. Системы, которые могли бы соперничать и бороться с людьми, должны были бы обладать потребностями, мотивациями, волей, активностью и эмоциональным механизмом управления поведением. Они должны были бы обладать и сознанием, т.е. осознанием себя как индивида или личности во взаимодействии со средой. Кроме того, эти системы должны обладать возможностью какого-то поведения, т.е. эффекторами. Кроме того, эти системы должны соперничать с людьми за какой-то ограниченный ресурс. То есть с органической жизнью на земле могла бы соперничать только какая-то другая жизнь.
   Из этого следует, что в принципе можно обсуждать не надуманную проблему риска создания Большого искусственного интеллекта, а проблему риска искуcственного создания альтернативной небелковой жизни. Правда, никаких конструктивных предпосылок для искусственного создания альтернативной жизни нет. В то же время, возникает неразрешимый пока вопрос "как", а также и вопрос "зачем".
   Следует отметить, что существует движение Россия 2045. В рамках этого движения ставится цель создания альтернативной жизни - бессмертного "существа" с искусственным неорганическим телом и искусственным интеллектом. Это не обладающее физиологическими потребностями "существо" должно заменить смертного человека.
   Планируемые конкретные работы не содержат ничего, что могло бы их принципиально отличить от давно ведущихся работ по созданию роботов, киборгов и моделированию мышления. При этом, можно отметить, что ни разработка роботов, ни разработка так называемых киборгов, ни каких-либо других подобного рода систем на неорганической основе никакого отношения к созданию альтернативной жизни не имеет.
   Неживые системы находятся в состоянии равновесия со средой, либо в движении к равновесию. (Искусственно поддерживаемое неравновесие в диссипативных самоорганизующихся системах это отдельный вопрос, на котором мы еще будем останавливаться). Живые самоорганизующиеся системы находятся в состоянии активно поддерживаемого неравновесия, т.е. в состоянии непрерывной борьбы со смертью. Равновесие это смерть. По-видимому, именно эта особенность живых систем является основой приведенных выше "виталистических" свойств живого.
   Роботу, даже имеющему какой-то интеллект, киборгу или иной искусственной системе для сохранения своего существования, в отличие от живого организма, не нужна постоянная активная самоорганизация, т.е. выполнение внутренней, и внешней работы по поддержанию своего термодинамически неравновесного состояния [1]. Т.е. такое "существо" живым не будет, а следовательно не будет иметь не только потребностей, но и целей, мотиваций, желаний, активности и эмоций. Не будет оно обладать и сознанием.
   Таким образом, планируемые в рамках движения Россия 2045 конкретные работы ничем не отличаются от уже давно ведущихся работ по созданию роботов, киборгов и искусственного интеллекта со всеми проблемами и недостатками этих работ. Альтернативной жизни на этой основе построить нельзя. В то же время, точка технологической сингулярности, связываемая с созданием искусственного интеллекта, в обозримом будущем не предвидится. Финальные цели движения 2045, научного обоснования не имеют.
   В добавление сделаем еще некоторые замечания по поводу положений, выдающихся идеологами движения Россия 2045 за его научно-методическую основу.
  Во-первых часто ссылаются на продвижение в решении проблемы расшифровки мозговых кодов психических явлений. Можно ли говорить о задаче расшифровки мозговых кодов психических явлений? Думаю, что постановка такой задачи применительно к более или менее сложным психическим явлениям неправомочна. Кодов сложных психических явлений нет. Смысловым единицам строящейся в мозге иерархической нейронной модели мира, включающей модель собственного "Я",
  соответствуют нейронные ансамбли - выделенные в сети группы нейронов, взаимодействующих через взаимовозбуждающие (не обязательно прямые) положительные обратные связи. Психические явления выражаются не кодами, а сложными взаимодействиями нейронных ансамблей в процессе их возбуждений и торможений. Эти взаимодействия рождают сознание и понимание. Как это делается нам не известно. Часто считается, что эти процессы неалгоритмичны и ставится под сомнение принципиальная возможность их формального выражения, а соответственно и возможность моделирования.
   Кодироваться и декодироваться естественным образом могут описания или алгоритмы, зафиксированные на каком-то языке. Описания или передаваемые сообщения такого рода внутри мозга в процессе мышления не создаются. В плане расшифровки кодов психических явлений, по-видимому, можно решать лишь упрощенную задачу, а именно задачу установления причинно-следственных связей между возбуждениями каких-то групп нейронов и действиями в пределах простой схемы стимул-реакция. Но даже и в этом случае установление такой связи вряд ли можно назвать кодом психического явления.
   Следующий опорный тезис - информация инвариантна по отношению к физическим свойствам своего носителя. Это так в случае если информация это зафиксированное или передаваемое описание (сообщение).. В случае целостной нейронной модели мира информация как-бы "растворена" в своем физическом носителе и вне его существовать не может. При этом нейронная модель мира является одновременно формой и содержанием информации. Кроме того она является и инструментом для работы с информацией.
   Многие, и в особенности философские, определения информации используют понятие "отражение". Однако, субъективная нейронная модель мира (среды) ни отражением, ни фотографией не является. Содержащаяся в этой модели информация всегда неполна, неточна, субъективна и значительно усложнена по сравнению с первичной информацией, поступающей от органов чувств.
   При этом, процесс получения уже первичной конкретной информации не является пассивным отражением не только потому, что он относится к какому-то выделяемому частному информационному срезу, но еще и потому, что этот процесс, как при восприятии, так и при обучении, всегда активен и целенаправлен.
   Информация, образующая субъективную модель мира, включающую модель собственного "Я", имеет особую форму, особый специфический носитель и не просто передается от объекта к субъекту, а активно создается в мозге человека или в мозге животного в процессе обучения и приобретения жизненного опыта.
  Нейронная модель мира всегда субъективна поскольку используемая при ее построении информация о среде целенаправленно интерпретируется на основе уже имеющихся знаний и текущих целей. В свою очередь результат этой субъективной интерпретации входит как часть в уже имеющуюся целостную систему.
   Важной особенностью строящейся в мозге модели мира является ее иерархичность как по линии общее-частное, так и по линии часть-целое. Иерархическое построение модели необходимо для управления процессами восприятия и обучения, а также для решения многих абстрактных, в том числе и творческих задач. Иерархическое представление информации необходимо и для решения многоэкстремальных задач поведения [6,7].
   Понятно, что построение в модели обобщений и укрупнений это не отражение среды, а сложный процесс субъективной переработки существующей в модели и поступающей информации. При этом основная часть входной информации поступает не в виде описаний (сообщений), а в виде многомодальных и многомерных сенсорных образов.
   Можно ли аналогичную модель с аналогичным представлением информации и аналогичными свойствами реализовать на другом субстрате или программно? Может быть и можно, хотя это очень далекая от решения проблема. Физическим субстратом, обеспечивающим аналогичные свойства, могла бы быть, например, альтернативная небелковая жизнь. Программная реализация, скорее всего, полностью аналогичной быть не может. Однако, все это требует отдельного обсуждения.
   Третий опорный тезис это принцип изофункционализма - " один и тот же комплекс функциональных отношений может быть воспроизведен на разных субстратах, т.е. системами, имеющими разные физические свойства". Что такое комплекс функциональных отношений не определяется. Ни формального, ни логичного качественного обоснования принцип изофункционализма не имеет.
   Говоря об этом принципе, обычно ссылаются на Тьюринга. Я не нашел у Тьюринга такой формулировки. Известен тезис Тьюринга: каждая функция, вычислимая в обычном естественном смысле, может быть реализована машиной Тьюринга, или физический тезис Чёрча - Тьюринга: любая функция, которая может быть вычислена физическим устройством, может быть вычислена машиной Тьюринга. Эти тезисы нельзя ни строго доказать, ни опровергнуть. Принцип изофункционализма из этих тезисов не вытекает.
   Кроме того, Тьюринг математик. Для него функция это связь между переменными или закон, ставящий в соответствие каждому элементу некоторого множества некоторый элемент другого множества.
   Мышление не сводится к вычислению функций. Мышление это сложный многоплановый процесс. В [6] рассматривались такие типы мышления как восприятие, обучение, управление поведением, решение формальных задач, творчество.
   Все эти типы мышления (и тем более творческое мышление) не сводятся не только к формальным функциям, но, чаще всего, и к любому автоматному процессу, организованному по схеме вход-преобразование-выход. Таким образом, то, что понимается под выражением "комплекс функциональных отношений" либо не имеет отношения к тезисам Черча и Тьюринга, либо, в противном случае, не имеет отношения к мозгу и процессу мышления
   Часто говорят, что движение Россия 2045 лженаучно. Это неверно. Никакой науки ни ложной, ни истинной там нет. Интенсивно пропагандируемые цели и планируемые результаты движения Россия 2045, никакого научного обоснования не имеют.
  
   Все, сказанное выше, имеет отношение к общей проблеме моделирования мышления, но ни в коем случае не перечеркивает проблему. Моделировать активное человеческое мышление можно и нужно. Но это очень сложная и очень далекая от решения проблема. Это отдельная тема, для обсуждения которой нужно поднимать очень многие вопросы и, в частности, такие сложные вопросы, как жизнь и смерть, устойчивое неравновесие, активная антэнтропийная самоорганизация, репродуктивное и творческое мышление, сознание, воля, активность, целенаправленность, эмоции, ощущения, чувства. Эти вопросы в определенной мере затрагиваются в [6,7].
  
  
  
   1. Бауэр Э.С.. Теоретическая биология. Санкт-Петербург, Росток, 2002.
   2. Емельянов-Ярославский Л.Б., Интеллектуальная квази-биологическая
   система Индуктивный автомат. М., Наука, 1990.
   3. Николис Г., Пригожин И.. Самоорганизация в неравновесных системах: от
   диссипативных структур к упорядоченности через флук?туации. М.: Мир. 1979.
   4. Пенроуз Р. Новый ум короля. Москва, УРСС, 2004.
   5. Розенблатт.Ф. Принципы нейродинамики. М.Мир.1965.
   6. Шамис А.Л. Модели поведения, восприятия и мышления. М. Интуит, 2010.
   7. Шамис А.Л. Вектор эволюции (жизнь, эволюция, мышление) М., УРСС, 2012.
   8. Шамис А.Л. Эксперименты по организации динамической нейронной сети.
   Вопросы радиоэлектроники, серия общетехническая, ?15, 1968, сс 14-34.
   9. Hebb D.O. The Organisation of Behevior. N.Y. 1949
 Ваша оценка:

Связаться с программистом сайта.

Новые книги авторов СИ, вышедшие из печати:
О.Болдырева "Крадуш. Чужие души" М.Николаев "Вторжение на Землю"

Как попасть в этoт список
Сайт - "Художники" .. || .. Доска об'явлений "Книги"