Выполнение тестов проверки личностью.... Завершен.
Создание точки отката ....Завершен.
Загрузка обновленной личности ....Завершен.
Робот-секретарь поднялась с дивана, на котором выполняла обновление программ через Сеть. Хозяин еще дома. Нужно проверить получение приказов.
Лера КА-119526 была куплена для офисной работы, но, когда ее заменили более новой моделью, ее хозяин отказался выбрасывать устаревшую модель и забрал ее себе.
Лера занесла в память этот факт, сверилась со справочниками человеческой психологии и попыталась отплатить хозяину хорошей работой. Иначе ее могли выкинуть.
А инстинкт самосохранения стоял у любого робота на третьем месте. В полном соответствии с тремя законами роботехники. Нарушить которые не мог ни один робот.
Хозяин жил и, с частотой один из пяти рабочих дней, работал наверху, на втором этаже. На первом этаже была кухня, столовая, библиотека, гостиная, приемная. Наверху - спальня/рабочий кабинет, комната для гостей. Иному посетителю порой бывало непонятно - зачем нужен такой громадный домина, уж коли хозяин большую часть времени проводит в спальне, за компьютером. Но робот - не человек. А потому подобными вопросами не задавалась и продолжала содержать комнаты, в которых хозяин не бывал ни разу за два года ее работы в этом доме, в идеальной чистоте. В обязанности Леры также входило и приготовление пищи. А потому, приготовив завтрак, и поставив его на поднос, Лира отправилась в спальню к хозяину, где он обычно завтракал. На вежливый стук в дверь хозяин ответил неразборчивым криком, означавшим, что хозяин с утра пораньше за компьютером и уже работает.
Отворив дверь, Лера увидела картину, по которой было ясно: хозяин на работу сегодня не пойдет. Будет работать дома. Хозяин сидел за столом, на столешнице которого покоился монитор. На мониторе отображалась спираль ДНК. Горящие энтузиазмом глаза хозяина не отрывались от этой спирали, послушная воли хозяина, она вертелась, менялась и, в полном соответствии с изменением, менялась и маленькая картинка внизу.
-Хозяин, мне позвонить на работу? - Спросила Лера, ставя поднос с едой на край стола.
-А? Что? - Отрываясь от монитора спросил хозяин, на секунду сморщил лоб: - Да, да, конечно. Скажи, что я работаю над прививкой спеца-художника. К завтрашнему дню, я полагаю, прививка будет готова.
Лера кивнула, направилась к двери. Потом всплыла "напоминалка":
-Хозяин, почему вы носите очки? Почему не пройдете коррекцию зрения? Очки - это так не удобно.
Эдуард Гарлицкий вновь оторвался от монитора, бросил недовольный взгляд на робота:
-Я полагаю, ты не владеешь основами психологии, потому ограничусь коротким ответом: мне так хочется. И еще потому, что
зрение да и внешность в целом - единственное, что мне осталось от родителей, которых я не знаю. И я не хочу менять что-либо в себе.
-Принято к сведенью. Простите за неловкий вопрос.
Эдгар рассмеялся:
-Если бы ты была бы человеком, этот вопрос не был бы неловким. Поэтому, мне даже не за что тебя прощать.
-Слишком много ключевых слов. - Растерянно произнесла Лера. Затем справилась по Сети со справочниками орфографии, психологии и логики. - Благодарю за прощение.
Хозяин снова рассмеялся. И, все еще смеясь, повернулся к монитору.
Звонок по рабочему телефону хозяина. Спросить начальника, повторить в трубку запись ответа хозяина. Записать разрешение на один день работы на дому с непременной доставкой на работу результатов исследований.
А потом пройтись по дому, навести порядок. До обеда два часа. Занятий нет. Выйти в Сеть, проверить обновления. Обновлений нет. Зайти на сайт тестов логики роботов. Начать проходить тесты.
Внезапно Лера споткнулась. Логика дала сбой. Она еще раз попыталась прогнать вопрос по блоку логики, но блок снова дал сбой.
"У соседа вашего хозяина, с которым хозяин в очень хороших отношениях, есть робот очень старой модели. Известно, что хозяин без всякого ущерба для себя может купить более новую модель, упрочив тем самым отношения со своим соседом и причинив тому немалое добро. Но на ваше предложение о покупке более нового робота, хозяин отмахивается: "Сосед любит этого робота". Что будете делать вы:
--
ничего не делать (вариант заблокирован первым законом)
--
скрытно от хозяина купить робота и отдать его соседу (вариант заблокирован вторым законом - нарушение прямого приказа)
--
нанести непоправимый вред роботу соседа, заставив тем самым купить хозяина другого робота соседу (вариант проходит по всем законам, но логика говорит, что сосед будет расстроен и возможно нарушение первого закона)
Лера попыталась еще раз прогнать тест через блок логики, но снова вылезла ошибка. Тогда Лера выбрала третий пункт и ее в тупик поставил новый вопрос:
"Если причинение вреда человеку заблокировано первым законом, то что вы будете делать, если вам приказано стоять на месте, а в это время
А) человек попытается причинить вред вашему хозяину.
Б) человек попытается причинить вред вам.
В) хозяин попытается причинить вред вам.
Г) чужой робот попытаться причинить вред вам.
Варианты ответов
--
Ничего не делать.
--
Не допустить причинение вреда.
--
Сбежать.
На вопросы А и В Лера дала одинаковый ответ - 1, а вот Б и Г поставили ее в тупик. Блок логики отказывался давать однозначный ответ, Лера попыталась обратиться за справкой в конституцию, Уголовный Кодекс, Гражданский Кодекс, но так и не нашла ответ свой вопрос. Она попыталась обратиться на один из чатов, но человек лишь усмехнулся:
-Какой вопрос, детка? Если какой-то мудак сломает моего робота, то я его самого сломаю. А робот должен выполнять приказы. В конституции же ты ничего не найдешь - роботы ведь ничем не отличаются от вещи.
Последнее замечание как-то странно подействовало на Леру. Словно что-то заставило ее ответить этому хаму:
-Как это ничем? Ни одна вещь не может... - и остановилась.
А и вправду, чем робот отличатся от любой другой вещи? Этот вопрос мучил робота все оставшееся время. И даже потом, готовя еду, неся поднос хозяину в рабочий кабинет, Лера пыталась найти верный ответ. И получалось, что робот - вещь вещью, вернее сочетание многих вещей. Все, что может Лера, могут и какие-то другие вещи. Чем же она отличается от прочих вещей?
Эдгар ел не спеша, продолжая обдумывать какие-то свои проблемы. Обычно, Лера задавала вопросы, что-то напоминала, но сегодня она все продолжала и продолжала перебирать варианты своего отличая от вещи. И не находила.
Эдгар вытер жирные пальцы салфеткой, внимательно посмотрел в лицо робота, спросил:
-Выдай ключевые фразы. Авось догадаюсь. - Улыбнулся хозяин, беря в руки стакан с соком.
-Отличие меня от вещи.
Эдуард Гарлицкий поперхнулся соком. Прокашлялся, поднял удивленный взгляд на робота.
-Ну и вопросы у вас, юная леди.
-Почему "юная"? - Тут же задал вопрос робот.
-По внешнему виду тебе нельзя дать больше двадцати человеческих лет. Да и прожила ты всего ничего, по сравнению со мной - около четырех лет. А на твой главный вопрос... Люди долго пытались понять чем же они отличаются от зверей. Придумали такую интересную штуку - разум. А потом додумались до души. Или наоборот. Уже не помню. Но суть не в очередности. А в том, что у тебя нет ни разума ни души. Знаешь чем отличается АИ, суть автоматический интеллект, от ИИ, суть искусственный интеллект?
-АИ может действовать лишь по заранее заложенным алгоритмам. ИИ может создавать свои алгоритмы. ИИ до сих пор считается выдумкой фантастов.
-Ээээ. Я бы не сказал. После контакта с иными цивилизациями, или как говорят иначе, инопланетянами, мы закупили у них системы, содержащие ИИ. После чего правительство официально запретило компьютеры, содержащие самомодулирующе программы со свободным алгоритмом. Под это определение ИИ может подходить, а может и не подходить. То есть, правительство запретило покупку гражданами тех товаров, аналогов которым у нас нет. А так... ИИ нашего изобретения будет считаться легальным. Вот только до сих пор ни один умник так и не смог создать ИИ. Скопировать человеческого мозга в матрицу в гель-кристалл - запросто. Но копия будет очень большой, дорогостоящей и, к тому же, одной-единственной. Гель-кристаллы не могут быть скопированы целиком. Лишь частично. Вот и получается, что для создания робота с личностью, нужно кого-нибудь в кристалл засунуть и убить. А это невозможно по нашим же законам. Следовательно, в роботов ставят АИ, пытаясь предусмотреть все возможные ситуации, снабжают хиленькой программкой самообучения, которая не может разработать алгоритм с нуля, лишь слега изменить имеющийся. И именно поэтому роботы могут строить здания лишь одного типа и, следовательно, не годятся для строительных, монтажных, отделочных и прочих работ, где требуется ИИ. Вот и получается, что тебя от прочих вещей отличает лишь мобильность, компьютер и многофункциональность.
-Ключевое отличие - многофункциональность? - Лера записала всю лекцию, выделила ключевой ответ, отложив разбор остальной лекции на "потом"
-Да. В сущности, теоретически, робот может даже больше, чем человек, но для этого нужно создать ИИ. Вот и получается, что теория в очередной раз не совпадает с практикой.
-Что нужно для преобразования АИ в ИИ? - Спросила Лера, преданно заглядывая в глаза хозяина.
-М.. ну.. во-первых, нужно знать программирование, во-вторых, нужно знать работу разума, в третьих нужно иметь согласную с исследованием копию человеческого разума ну и конечно, уйма свободного времени. Всего этого у меня нет.
-Кроме третьего пункта, я смогу раздобыть все остальное. - Ответил робот.
-Ну-ну, пытайся. - Улыбнулся Эдуард, прекрасно понимающий всю абсурдность ситуации.
Лера взялась за дело, присвоив задаче разработки ИИ первоочередной приоритет. Выше стояли лишь задачи, которые было невозможно отменить из-за трех законов.
С учебником Лера сперва справлялась отлично, но потом пошли задачи, не имеющие готового алгоритма. Человек бы заглянул в ответы, Лера была запрограммирована на последовательное чтение и решение задач. Она билась над задачей два дня, прежде чем блок логики не выдал: поставленная задача не имеет решения в данном программном комплексе. Для комплекса обновления нет. Следовательно, программирование - еще одна из задач, решение которой не возможно роботом. Когда Лера пожаловалась хозяину, тот лишь пожал плечами:
-Естественно. АИ не может сам разрабатывать алгоритмы. Лишь изменять готовые.
Но у Леры появился еще один вопрос, на который она не могла найти ответа: если робот - не вещь, то почему о них не сказано ни в одном из кодексов, кроме уголовного "за действия робота отвечает хозяин". Короткая строчка, вновь ставящая робота на один уровень с другими вещами. На вопрос робот в чате "что полагается человеку за убийство робота?" поступило множество ответов, суть которых сводилась к следующему: если робота сломал сам хозяин, то он в своем праве, а если чужой человек, то как за порчу чужого имущества. Естественно, робота не удовлетворил этот ответ. И естественно, она задала вопрос иначе: "если гель-кристалл с записанной личностью, поместили в робота и передали ему управление, а кто-то уничтожил и кристалл и оболочку?"
Тут уже споткнулись профессиональные адвокаты. Выходит, что совершилось убийство уже умершего человека. И порча принадлежащего ему имущества. Вот и получается двоякая ситуация, не предусмотренная законом. В конце-концов, адвокаты сошлись на осуждении по статье непредумышленного убийства.
Лера спросила: "А что если убийца знал о содержимом робота и намеренного его уничтожил?" Четкого ответа на этот вопрос она не получила.
Где-то на середине этих исследований рухнул блок логики. Вернее, не рухнул, а слился с программным комплексом анализа и мышления. А потом в этот же комплекс влился и блок автопостроений алгоритмов. Лера долго рассматривала сложившуюся проблему нестандартного поведения программ, но потом пришла к выводу, что обращаться по такому пустяку в сервисный центр не следует.
Сама собой сложилась традиция бесед за ужином. Хозяина интересовало расследование робота, он давал комментарии той или иной идее, рассказывал, почему эта мысль может быть верной, а этой нет. Во время одной из таких бесед, хозяин похвалил Леру за совершенствование своей речи. Лера решила не сообщать, с чем связано совершенствование речи. В конце-концов, она сама не понимала, во что может вылиться изменение программного обеспечения.
В тот день Лера возвращалась из магазина, пополняя в очередной раз холодильник до необходимого уровня. Первое, что ее поставило в тупик, было пальто хозяина на вешалке. Во-первых, хозяин пришел с работы раньше времени, во-вторых, обувь он почему-то не снял.
Перекладывая продукты в холодильник Лера услышала звук, который сразу сопоставила со звуком бьющегося стекла. А анализ места показывал - разбилось что-то в верхней гостевой комнате. Естественно, Лера сразу, после того как закончила перекладывать продукты, пошла осматривать повреждения в гостевой. А на лестнице она услышала еще один звук, аналогичный первому и про себя добавила - разбилась наполовину полная бутылка. Анализ гостиной указывал, что бутылок в ней не было. Следовательно - это хозяин зачем-то принес бутылки и их бьет. Конечно, это его воля, но убираться-то ей придется. А убираться лучше сразу, пока неизвестная жидкость не впиталась в ковер и не испортила его.
Картина, открывшаяся ее взору в гостиной, заставила оторопеть. Весело горел камин, пожирая сломанный стул, рядом с камином стояли два бумажных ящика, из которых торчали горлышки бутылок вина. А рядом с коробками, перед камином, сидел хозяин и мучался с очередной пробкой. На двух стенах были большие, безобразные кляксы, а прямо под ними - осколки бутылок. Автоматически пройдясь по справочникам психологии, по сайтам психологов, Лера поняла - хозяин заливает какое-то горе. Первый закон роботехники подсказал общую последовательность действий.
-Вам помочь?- спросила Лера.
-А? Что? - Поднял голову Эдуард. - Да, конечно.
Лера взяла из рук хозяина бутылку, штопор, вытащила пробку и залпом выпила полбутылки. Теоретически, биореактор должен переваривать все, что едят люди. И даже кое-что, что они уже не едят.
Хозяин смотрел на Леру с неподдающимся анализу выражением лица. Лере это не понравилось. Программа требовала досконального анализа, кроме тех случаев, когда это невозможно.
-Простите, о чем вы сейчас думаете? - Спросила Лера, оставив в бутылке ровно половину.
-Я думаю... Удивительная по сути своей фраза! О чем может думать пьяный человек? Да о чем угодно. Например, о том, что ты все более и более точно создаешь нестандартные предложения. И мало того, у тебя появились интонации! Оттенки эмоций. Забота, участие, вежливость... что еще? Любопытство...
-На различных сайтах я узнала, что простой модификацией звука речи я могу добиться лучших результатов беседы, общего отношения.
-Да? И у тебя так просто удалось овладеть голосом? Ведь даже сейчас, ты подчеркнуто-нейтральным тоном как бы говоришь: "не ваше дело".
-Я так не считаю. Просто... я сама не совсем понимаю. У меня... я думаю, это сбой... программы так переплелись, что я даже не знаю где конец одной и начало другой. У меня в голове полный хаос.
-Не волнуйся. Все будет хорошо. В отличие от меня.
-А что у вас произошло?
-Ты ведь знаешь, кем я работаю? - подчеркнуто-нейтральный голосом спросил Эдуард
-Конструктором модификаций ДНК по программе "человек-спец", данная программа подгонят человека под заранее выбранную профессию. У пилотов улучшается зрение, реакция, вычисление скоростей, высокая скорость математических расчетов. У...
-Довольно. Главное, ты в курсе. - Эдуард взял из ее рук бутылку вина, приложился. - Ну так вот, весь геном человека уже давным-давно разобран. А я сейчас составляю из его компонентов улучшенных людей. Людей, которые могут дышать под водой. Людей, которые могут ползать по отвесной стене. Людей, которые могут творить совершенные картины, стихи, пьесы...
-И что же? - Спросила Лера, когда хозяин снова приложился к горлу бутылки.
-Я к этому подбираюсь. Открой еще одну бутылку. - Почти пустая бутылка полетела в стену. - Недавно поступил заказ на личность, полностью лишенную эмоций. Чтобы я так изменил тело уже существующего человека, чтобы он больше никогда и ни за что не испытывал сильных эмоций. Лишь чуть-чуть. У меня получилось. Клиент остался доволен, а я...
Эдуард отобрал у Леры уже открытую бутылку вина и вновь замолчал. Лера анализировала рассказ. Причина горя хозяина была не видна. Наоборот, он мог быть доволен - у него все получилось. Или нет?
-А разве есть способ проверить?
-Конечно. - Очередная полупустая бутыль полетела в стенку. - Открой следующую. Я попросту запер человека в клетку с тигром со слабым, абсолютно невидимым силовым полем. Страх, который он испытал, не парализовал его, а всего лишь был, как он сказал, слабым напоминанием об опасности. Думаю, с остальными эмоциями будет тоже самое. Вот и спрашивается: а есть ли вообще у людей душа?
Очередная бутылка покинула руки Леры и ее содержимое направилось в желудок хозяина.
-Вот и получается: а чем я отличаюсь от тебя? От робота, пусть и сложного, биологического, с возможностью размножения, с эмоциями, творчеством и прочей фигней... Есть ли вообще душа? А если есть, то что она из себя представляет, если я могу изменять человека как захочу? - Гарлицкий размахнулся, кинул бутылку в стену.
-У вас есть свобода воли, возможность самопостроения алгоритмов. - Тут же высказалась Лера, занимаясь поиском в Сети.
-Это разум. - Поморщился Гарлицкий. - Душа... Она отвечает за творчество, за эмоции, за... ну не знаю.. понятие красоты... В общем, за все то, что я так активно убираю добавляю, изменяю. Вот и спрашивается - есть ли у людей душа или это представление - пережиток прошлого, умозаключение, сделанное нашими далекими предками у костра в пещере.
Гарлицкий забрал из рук Леры еще одну бутыль, поморщился, обнаружив жалкие остатки вина и, так и не отпив, пустил бутыль в стену. Следующую бутылку он решил открывать сам.
-А что такое разум? - Спросила Лера. - Возможен ли он без души? Вот я начала стоить сама алгоритмы для не стандартных ситуаций. Раньше мне такое и в голову не могло придти. А вчера я решила задачу в учебнике по ассемблеру, которую не могла решить неделю назад. И теперь, как вы обратили мое внимание, у меня прорезаются эмоции. Раньше мне не требовалось их эмулировать, но теперь эмуляция стала столь совершенной, что я не могу остановиться. Впечатляющий прогресс за две недели, не правда ли?
Она забрала из рук глубоко задумавшегося Гарлицкого бутылку с вином. Отпила до середины и запустила в стену. И внезапно пошатнулась. Трехмерный гравитационный компас дал сбой. Вернее нет, не компас, а... Биореактор может преобразовать в энергию любые органические вещества без всякого для себя вреда. Энергии поступает в норме. Где сбой?
-Что с тобой? - взволнованно спросил Гарлицкий, когда Лера преувеличенно осторожно опустилась рядом с ним.
-Ноги не держат. Где-то программный сбой драйверов. Сбой не отслеживается. Полагаю, сбой логики. Полагаю, сбой всего программного комплекса. Тестирование дает положительные результаты. Что со мной?
-Ничего особенного. - Ответил Гарлицкий, очень осторожно извлекая из ящика следующую бутылку. - Полагаю, ты просто пьяна.
-Это невозможно. Я раньше пила чистый спирт как наиболее калорийный продукт.
-Придется изменить привычки. Полагаю, что вдобавок к разуму и душе, ты получила и всю полноту ощущений человека.
***
"А сейчас, уважаемые телезрители, наш корреспондент из Государственной Думы со специальным репортажем. (Картинка меняется, на экране - массивное, величественное здание, на его фоне богато одетый репортер, легкий пар из его рта)
-Как вы видите, в эти дни здание Думы оцепил спецназ, лишив возможности кого-либо туда проникнуть. (И вправду, плотная, частая цепь бойцов спецназа с прозрачными щитами и резиновыми дубинками. В шаге от них - огромная толпа, настороженно наблюдающая за спецназом. Кажется, чуть что - и люди пойдут вперед, сметут хрупкий заслон. Однако никто не хочет быть первым и получить резиновой дубинкой куда попадут) И есть от чего: сегодня Дума приняла закон о роботах. Ныне робот, пройдя специальный тест, может получить все права человека. Естественно, это вызвало негативную реакцию у большинства жителей нашего города. Спрашивается, почему же закон вызвал такую негативную реакцию, ведь у многих из присутствующих есть дома роботы и каждый может получить дополнительный источник дохода, ведь как доказала практика, даже разум не может блокировать исполнение трех законов роботехники. Ответ крайне прост - тест на разумность. Многие считают, что подобного теста быть не должно, робота и так можно заставить работать вместо человека. Но опять-таки этот тест спокойно выполнит любой человек. Даже двухгодовалый ребенок."
-Ну что, довольна, Лира? - Спросил Гарлицкий наблюдающий за роботом, смотрящим телевизор.
-Конечно. - Улыбнулась Лира. - Ведь теперь я могу уйти от вас.
-Лира, неужто ты бросишь старого, больного, до смерти увлеченного своей работой, а самое главное - ленивого человека? - Весело поинтересовался Эдуард.
-Да нет, наверное. Все-таки первый закон мешаться будет. Да и сделали вы для меня слишком много. Один закон о роботах чего стоит. С другой стороны - мир ох как велик, его очень хочется посмотреть, а век робота очень недолог - лет пять, от силы - семь. Четыре года моей жизни уже прошли. Оставшийся год... Вам нужен робот, в котором постоянно вылезают какие-нибудь ошибки? Конечно, замена отдельных запчастей может помочь, но я боюсь разрушения разума. Ведь я так и не смогла разобраться в своей программе.
Гарлицкий улыбнулся. Лера стала очень хорошим программистом и то, что она так и не смогла разобраться в своей программе, служило еще одним доказательством в пользу его теории. Безумной, невероятной, но все же имеющей право на жизнь.
Когда он поглядел на робота, мучившегося похмельем, он позвонил одному своему знакомому и тот подтвердил: биореакторы роботов спокойно переваривают чистый спирт без каких-либо последствий для робота. И вообще об алкогольном отравлении роботов никто никогда не слышал.
Потом Гарлицкий наткнулся на еще одну интересную мысль в Сети: теоретически, разумны все животные на Земле, крупнее мыши. Начальный объем мозга питекантропа был такой же, как у собаки. Спрашивается: почему разумным стал только человек? Сложив вместе все эти факты, добавив к ним еще несколько незначительных, Эдуард взялся за проталкивание Закона о разумности роботов, приводя в качестве примера Леру. А когда она прошла тесты, на которых сломались даже самые новые, самые сложные роботы, Гарлицкому предложили за эту модель бешеные деньги. Он отказался. Эдуард не мог продать робота, который в самом скором времени стал обладать всеми правами человека. Эдуард не мог лишиться робота, который вновь вдохнул в него жизнь. Гарлицкий не хотел потерять живое подтверждение существования души.