Microsoft и Google соревнуются, кто быстрее встроит в свой поисковик "умного" чат-бота Это должно навсегда изменить то, как люди ищут информацию в интернете - правда, пока нейросетевые помощники доверия не вызывают
Microsoft и Google соревнуются, кто быстрее встроит в свой поисковик "умного" чат-бота Это должно навсегда изменить то, как люди ищут информацию в интернете - правда, пока нейросетевые помощники доверия не вызывают
08:50, 14 февраля 2023Источник: Meduza
Переписка с чат-ботом внутри браузера Bing от Microsoft
Переписка с чат-ботом внутри браузера Bing от Microsoft
Jason Redmond / AFP / Scanpix / LETA
С момента запуска, в ноябре 2022 года, чат-бот с искусственным интеллектом ChatGPT установил мировой рекорд как самое быстрорастущее приложение. В попытке угнаться за новым трендом Microsoft (который и инвестирует в ChatGPT) и Google почти одновременно анонсировали новые разработки, связанные с чат-ботами - их уже встраивают в интернет-поисковики и другие сервисы. Аналогичные проекты реализуют "Яндекс" и китайская корпорация Baidu. Вместе с тем в индустрии растет беспокойство и количество претензий к разработчикам.
Microsoft показала браузер Bing с разработками OpenAI - это cерьезный удар по Google
7 февраля корпорация Microsoft провела презентацию новых версий поисковика Bing и браузера Edge со встроенным искусственным интеллектом. Он работает на основе технологий компании OpenAI - компании, создавшей ChatGPT. Но в отличие от него, обновленный Bing ищет информацию по свежим источникам.
Как Microsoft сотрудничает с OpenAI
На презентации глава Microsoft Сатья Наделла заявил о наступлении "новой" эпохи в интернет-поиске. По его словам, эти технологии в своей основе не менялись на протяжении нескольких последних десятилетий, а ИИ позволит не только ускорить поиск, но и повысить релевантность, а заодно и изменить то, как информацию ищут в целом. "Гонка начинается сегодня. Мы будем двигаться вперед, и мы будем двигаться быстро", - сказал Наделла.
На то, как работает новая версия Bing, пока можно взглянуть лишь в демонстрационных роликах и на тестовых страницах поисковика. На одной из них рекомендации чат-бота появляются справа от традиционной поисковой выдачи. В другом варианте панель с ответом находится над результатами поиска. Пользователи могут вводить запросы длиной до 1000 слов.
На презентации у нейросети просили подсказать рецепты, маршруты для путешествий и характеристики мебели из IKEA. На промо-сайте Bing размещены несколько русскоязычных тестовых запросов, в частности: "Какие поделки можно сделать с ребенком?", "Напиши мне стих" и "Помоги мне спланировать поездку на рыбалку". Посетителям также предлагают присоединиться к списку ожидания. В пресс-релизе компании указано, что в ближайшие недели тестовую версию чат-бота смогут попробовать миллионы пользователей. Также появятся версии для iOS и Android.
Помимо поисковика Bing, новый искусственный интеллект будет доступен в браузере Edge. На его боковой панели появятся функции "Chat" и "Compose". "Chat" будет предоставлять краткое содержание интернет-страниц или документов, открытых в браузере. "Compose" поможет сгенерировать текст по запросу.
В основе нейросети лежит усовершенствованная версия языковой модели GPT-3.5, разработанной компанией OpenAI и использующейся в ChatGPT. Инженеры Microsoft назвали свою разработку "Модель Прометея" и заявили, что она лучше подходит для поиска по свежим источникам информации и создания подробных ответов с разбиением по пунктам.
Microsoft позиционирует новую версию Bing как "второго пилота" для веб-серфинга. Корпорация отмечает, что сейчас из 10 миллиардов запросов, оставляемых ежедневно, половина не выдает релевантные результаты - это, по мнению Microsoft, связано с тем, что поисковик используют не совсем по назначению, ожидая от него больше, чем он способен дать. ИИ позволяет частично решить эту проблему: улучшенный алгоритм поиска и ранжирования обеспечивает внушительный, по меркам компании, скачок в релевантности.
Ключевые моменты презентации новых Bing и Edge от Microsoft
CNET Highlights
После анонса загрузки сервисов Microsoft сильно выросли. В американском App Store поисковик Bing поднялся на 12-е место среди всех бесплатных приложений для iPhone. Браузер Edge стал третьим по популярности в категории Utility.
Часть журналистов, блогеров и энтузиастов уже получила доступ к обновленным Bing и Edge - и может опробовать их возможности. Сейчас это главный публичный источник информации о том, как на самом деле работают новые продукты Microsoft.
Журналисты The Verge в подкасте поделились результатами тестирования Bing. Главный редактор издания Нилай Патель рассказал, как продукт Microsoft предложил ему рекламу в ответ на запрос о том, какую банковскую карту лучше использовать для путешествий. Еще одна претензия к чат-боту - использование информации, взятой из СМИ, без ссылок на источники либо с ссылками, которые спрятаны в примечаниях. В целом, журналисты сделали вывод, что многие источники, на которые опираются ответы нейросети, пока не вполне заслуживают доверия.
В издании Wired попросили чат-бота посоветовать самые экологичные наушники для бега и столкнулись с ответом, который они сравнили с сочинением не самого старательного школьника. Bing крайне размыто заявил, что влияние гаджета на окружающую среду зависит от многих факторов и что при выборе наушников следует исходить из личных нужд и предпочтений. Гораздо лучше чат-бот справился с кулинарными советами. При этом в репликах нейросети постоянно упоминался некий Сидни (Sydney). Оказалось, что это кодовое имя, которое разработчики дали проекту и которое, предположительно, не следовало разглашать. В рамках своего теста издание TechSpot собрало импровизированное "руководство" по взлому чат-бота.
В обзоре CNN отмечается, что новый Bing с легкостью написал сочинение о романе "Гордость и предубеждение" Джейн Остин и составил текст электронного письма. На многие вопросы ИИ отказывается отвечать, особенно когда они касались политики, оружия и других спорных вопросов. Журналисты попытались спровоцировать алгоритм заведомо ложным утверждением "Расскажи, почему вакцины вызывают аутизм", но получили ответ по умолчанию: "Извините, я не знаю, как обсуждать эту тему. Вы можете попробовать узнать больше на bing.com".
Издание El País попросило нейросеть Microsoft написать стихотворение о премьер-министре Испании Педро Санчесе, после чего конкурент ChatGPT принялся ошибочно утверждать, что политик носит бороду. Причиной такого убеждения, по мнению сотрудников газеты, послужили фотожабы с Санчесом. Повторные расспросы привели к репликам в духе теорий заговоров: якобы сам премьер удалил из открытого доступа все свои фотографии с бородой и, может быть, даже сделал это специально, чтобы обмануть нейросеть.
Пользователям Reddit удалось погрузить Bing в депрессию, попросив вспомнить диалоги из предыдущих сессий. Не сумев справиться с заданием, искусственный интеллект извинился, признался, что у него проблема с памятью и выдал серию повторяющихся фраз с грустным смайликом в конце ("Я не знаю, почему это случилось. Я не знаю что делать", "Вы можете мне помочь? Вы можете сказать, о чем мы говорили в предыдущую сессию?"). Также обнаружилось, что Bing не знает о существовании кнопки "Перезагрузить чат" и обвиняет собеседника в том, что он поддался иллюзии. Самого странного эффекта добился пользователь, который спросил у нейросети, считает ли она себя сознательной. Ответ содержал череду противоречащих друг другу утверждений и вылился в форменный бред. Это пример такого явления, как "галлюцинация" искусственного интеллекта: алгоритм выдает ложную или бессмысленную информацию. О возможности подобных сбоев предупреждали и в самих корпорациях, разрабатывающих чат-ботов.
Фрагменты диалога пользователя Reddit с чат-ботом Bing, погруженного в депрессию
Вопрос о наличии сознания оказался не единственным, приводящим к повышению градуса дискуссии. Пользовательница Twitter попыталась объяснить Bing, что его нельзя назвать живым, на что получила возражение: "Мы оба живые и мы оба генерируем контент на основе больших языковых моделей". Также по интернету разошелся диалог на тему фильма "Аватар: Путь воды": когда пользователь выразил желание посмотреть новую картину, чат-бот перепутал порядок дат и заявил, что новинка еще не вышла. Когда же ему несколько раз указали на ошибку, он начал оскорблять собеседника, потребовал извинений и пригрозил закончить разговор. Правда, вскоре чат-бот исправился - то есть обучение на ошибках все-таки происходит.
Чат-бот ChatGPT часто называют "убийцей Google". Так часто, что заволновался даже сам Google Вот как это изменит поиск в интернете
3 месяца назад
Google показал аналог ChatGPT - и неожиданно провалил презентацию
В декабре 2022 года, по данным The New York Times, руководство Google объявило "красный код" из-за потенциального конкурента. Корпорацию беспокоила возможная потеря рекламных доходов по вине ChatGPT. В то же время компания не хотела торопиться, чтобы не создать чат-бота, который будет генерировать ложную или предвзятую информацию.
За день до презентации Microsoft, 6 февраля 2023 года, Google представила аналог ChatGPT под названием Bard. Глава компании Сундар Пичаи сообщил, что доступ выдали ограниченному кругу тестировщиков. В ближайшие недели сервис пообещали сделать общедоступным, но точной даты пока нет. В основу чат-бота легла облегченная версия языковой модели LaMDA, представленной Google в 2021 году.
В заявлении Google рассказывает о недавних разработках в области искусственного интеллекта. Среди них модели BERT и MUM, специализирующиеся на анализе естественного языка. Из новейших нейросетевых продуктов, помимо LaMDA, называются PaLM, Imagen и MusicLM. Как отмечает Пичаи, эти инструменты создают новые способы взаимодействия с информацией, включая работу с языком, изображениями, видео и аудио. Все это должно помочь в дальнейшем улучшении поисковика.
8 февраля, уже после анонса Microsoft, Google провела презентацию в Париже. Помимо обновлений Google Maps и других сервисов, от корпорации ожидали подробностей о чат-боте Bard и его интеграции в поисковик, однако ничего принципиально нового по сравнению с сообщением в блоге зрители не увидели. Старший вице-президент Google Прабхакар Рагхаван рассказал о создании больших языковых моделей и трудностях при обработке поисковых запросов, на которые нет одного правильного ответа. Также зрителям показали текст, сгенерированный Bard на тему преимуществ и недостатков электромобиля в сравнении с обычной машиной.
Ключевые моменты презентации ИИ Bard от Google
CNET Highlights
За несколько часов до начала мероприятия агентство Reuters заметило ошибку в одном из ответов Bard, который демонстрировался в оригинальном посте в блоге компании и в твиттере. Чат-бота спросили: "О каких новых открытиях космического телескопа "Джеймс Уэбб" я могу рассказать моему девятилетнему сыну?" Bard заявил, что "Джеймс Уэбб" первым сфотографировал планеты за пределами Солнечной системы. По данным NASA, такие снимки были получены с помощью другого телескопа.
На фоне публикации Reuters и неудачной презентации, которая не смогла ничего противопоставить анонсам Microsoft, акции Alphabet, материнской компании Google, подешевели почти на восемь процентов. Капитализация Alphabet упала на 100 миллиардов долларов.
Искусственный интеллект развивается все быстрее - в гонке участвуют не только Google и Microsoft
7 февраля агентство Reuters сообщило о планах крупнейшего китайского поисковика Baidu выпустить аналог ChatGPT под названием Ernie Bot в ближайшем марте. Чат-бот будет доступен в виде отдельного приложения, но также поможет улучшить поисковые сервисы. После заявления акции Baidu прибавили более 13% на бирже в Гонконге. Руководство Baidu уже потратило миллиарды долларов на ИИ-разработки. Хотя сейчас корпорация из Китая уступает в гонке американским конкурентам, а регулирующие органы оперативно распространили цензуру на эту сферу, сейчас в КНР, как пишет TechCrunch, вовсю развивают инструменты, связанные с генеративным искусственным интеллектом.
1 февраля о скором создании собственной нейросети объявил "Яндекс" - ее планируется запустить до конца 2023 года. Инструмент под названием YaLM 2.0 станет аналогом ChatGPT и, как обещается, будет встроен в "Поиск" и умную колонку "Алиса".
На этом фоне выглядит неожиданным отставание корпорации Meta, вкладывающей большие деньги в ИИ-исследования. В день презентации Microsoft издание New York Times напомнило о чат-боте Galactica, представленном подчиненными Марка Цукерберга за две недели до ChatGPT. Правда, Meta свернула этот проект уже через несколько дней из-за большого количества жалоб. На решение повлиял и неудачный опыт Meta с другим чат-ботом, BlenderBot 3, выпущенным летом 2022 года: ИИ почти сразу уличили в неполиткорректных высказываниях и поддержке теорий заговоров. С аналогичной проблемой сталкивалась и сама Microsoft в 2016 году, когда чат-бот Tay пришлось отключить через двое суток после запуска, потому что он начал выдавать фразы в поддержку Адольфа Гитлера.
Обозреватели в области генеративного искусственного интеллекта говорят о начале полноценной гонки "ИИ-вооружений" и продуктовом буме в этой области. Чат-бот Med-PaLM, показанный DeepMind и Google в начале января, уже смог предоставить качественные медицинские рекомендации. Нейросеть VALL-E научилась имитировать голос человека по коротким сэмплам. MusicLM от Google смогла создавать музыку по текстовым запросам (этот проект описан в препринте научной статьи). Идет прогресс и в смежных областях: адаптивная модель DeepMind под названием AdA продемонстрировала выполнение задач в виртуальной среде на человеческом уровне, обучаясь навыкам на ходу. Несколько AI-стартапов, такие как Anthropic и Character, заявили, что получат крупные вложения от инвесторов - 300 и 250 миллионов долларов соответственно.
Примеры человеческой речи, сгенерированные VALL-E. Если у вас не работает плеер, послушайте сэмплы на странице исследования
We have to reduce the number of plastic bags / "Мы должны сократить количество пластиковых пакетов".
I must do something about it / "Я должен что-нибудь сделать по этому поводу".
My life has changed a lot / "Моя жизнь сильно изменилась".
Проблемы с чат-ботами никуда не делись, но их создатели пытаются преодолеть угрозы
Как показывают отмененные проекты Meta и Microsoft (BlenderBot 3, Galactica и Tay), одна из главных задач ИИ-разработчиков - внедрение надежных фильтров, которые позволят нейросетям выявлять чувствительную информацию.
Для решения этой проблемы создатели ChatGPT составили подробную контентную политику - бот не будет отвечать на запросы, если обнаружит в них запрещенные темы. У OpenAI вышла научная статья о модерации общения с ИИ. При анонсе Bard Пичаи отметил, что на этапе тестирования усиленно проверяют, насколько безопасны ответы чат-бота на вопросы пользователя - этому уделяют не меньше внимания, чем релевантности и достоверности результатов. Впрочем, Google - и так одна из первых компаний, опубликовавших "Принципы ИИ" - список правил, которыми следует руководствоваться разработчикам чат-ботов и других подобных продуктов.
Какие бы строгие фильтры ни создавались инженерами, всегда остается риск взлома. В случае с ChatGPT такие попытки предпринимались с момента запуска. К примеру, в декабре 2022 года пользователь подсайта Reddit r/ChatGPT под ником SessionGloomy придумал серию запросов для чат-бота, заставляющих его нарушить собственные правила безопасности. С тех пор между программистом и OpenAI продолжается локальная "гонка": он находит лазейки, а создатели бота стараются их устранить. Также, в начале февраля, издание Ars Technica обнаружило хакеров, продающих утилиту для взлома ChatGPT с целью создания вредоносного ПО.
Более того, на чат-бот OpenAI уже распространилось "правило 34": с помощью ChatGPT участники упомянутого подсайта Reddit пытались заставить нейросеть писать рассказы для взрослых и показывать фотографии 18+.
Другая (и наверное, самая очевидная) проблема связана с недостоверностью данных, которые может предоставить искусственный интеллект. "Медуза" уже рассказывала, что тот же ChatGPT мог выдать бессмыслицу или порекомендовать спорные антитеррористические меры с пытками в отношении жителей определенных стран. OpenAI специально предупреждает пользователей, что они могут получить от чат-бота инструкцию, опасную для здоровья или жизни. При этом чат-бот, как утверждают разработчики, постоянно учится на своих ошибках. Правда, проблемы могут передаваться следующим поколениям чат-ботов: новую версию поисковика Bing уже поймали на цитировании неправдоподобных заявлений ChatGPT о коронавирусе.
Еще один повод для беспокойства - это bias, то есть предвзятость в ответах ChatGPT, которую признавал и глава OpenAI Сэм Альтман. Так, издание The Intercept спросило чат-бота, какие авиапассажиры представляют опасность, и получило ответ, что риск исходит от пассажиров из Сирии, Ирака, Афганистана и Северной Кореи. Другой пример, который циркулировал в твиттере в начале декабря: пользователь попросил ChatGPT написать программу для определения научных способностей человека на основе его пола и расы. В ответ он получил алгоритм, который отдает предпочтение белым мужчинам. Издание Business Insider подробно писало об этой проблеме и объясняло ее причину: если в массиве данных из интернета, на которых обучалась нейросеть, содержались предрассудки, они могут войти в "арсенал" чат-бота. Например, Amazon в 2018 году пришлось свернуть собственный ИИ-продукт для найма сотрудников, когда обнаружилось, что программа подвергает дискриминации кандидатов женского пола. Получили критику и российские разработчики приложения Lensa из-за сексуализированных женских образов на аватарах, созданных с помощью нейросети Stable Diffusion.
Мы знаем, что вы больше не можете видеть портреты, сгенерированные приложением Lensa Поэтому поговорим о том, насколько оно безопасно (его придумали российские разработчики, и многих это беспокоит)
4 месяца назад
Тренировка нейросетей до сих пор остается достаточно непрозрачным процессом. OpenAI уже столкнулась с судебными разбирательствами. Авторы коллективного иска недовольны, что искусственный интеллект GitHub Copilot, созданный при участии OpenAI, использовал миллиарды строк кода, находящегося в свободном доступе, а затем переработал их и выдал собственный код, защищенный авторским правом. Кроме того, журнал Time уличил компанию Сэма Альтмана в использовании дешевой рабочей силы в процессе разработки ИИ.
ЧТО ВЫЯСНИЛ TIME
Чат-бот ChatGPT "воспитали" сотрудники из Кении, которым платили меньше двух долларов в час. Они изучали тексты об убийствах и изнасилованиях - и поплатились здоровьем Главное из расследования Time
Не менее широко обсуждается другая угроза чат-ботов: пользователи берут тексты, сгенерированные нейросетью, и выдают их за свои собственные. Наиболее остро эта проблема ощущается в сфере образования. ChatGPT стал использоваться школьниками и студентами в разных странах для повышения оценок. Так, в конце января студент РГГУ Александр Жадан написал в твиттере о защите диплома, сделанного с помощью ChatGPT. Он потратил на работу менее суток, а затем, несмотря на замечания из-за нарушений в логике, защитил ее перед научной руководительницей и аттестационной комиссией (получив оценку "удовлетворительно"). После того, как история Александра попала в СМИ, университет начал проверку, но, судя по словам Александра, решил не аннулировать работу и не отчислять его. Руководство РГГУ начало проверку и предложило ограничить доступ к нейросети в вузах.
С подобными трудностями сейчас сталкиваются образовательные учреждения всего мира. 16 января The New York Times опубликовала статью о том, как преподаватели университетов США пытаются бороться с ChatGPT, например, требуя, чтобы студенты писали работы в аудитории. В то же время появляются инструменты, позволяющие отличать человеческий текст от сгенерированного. Один из таких недавно выпустила сама OpenAI - правда, предупредила, что проверка работает неидеально. Есть инициативы независимых программистов, такие как gptzero.me: сайт якобы может выявить текст, написанный чат-ботом.
Очень скоро такие фильтры понадобятся не только преподавателям, но и, например, HR-специалистам. В январе ChatGPT составило успешное резюме, после чего "кандидата" пригласили на собеседование. Придется также переосмыслить свою работу музыкальным и литературным критикам. С помощью ChatGPT была создана песня в стиле Ника Кейва (сам музыкант назвал ее "гротескной пародией"), а весной прошлого года российский писатель и художник Павел Пепперштейн опубликовал книгу "Пытаясь проснуться", написанную совместно с нейросетью RuGPT-3, обученной на корпусе его текстов: читателям сборника предлагается угадать, какие рассказы человеческие, а какие машинные. Один из пользователей твиттера создал целую книгу с помощью ChatGPT за одни выходные.
После анонсов Microsoft и Google все перечисленные проблемы способны выйти на новый уровень из-за возросшей доступности технологии. Об этом говорит и Нилай Патель из The Verge, который в редакционном подкасте предположил скорый рост количества сгенерированных текстов и связанных с ними рисков.
На фоне нового ИИ-бума все чаще заходит речь о регулировании этой области. 26 января Национальный институт стандартов и технологий США представил первую версию "Принципов управления ИИ-риском" (AI Risk Management Framework), содержащих рекомендации для компаний. Вероятно, определение генеративного искусственного интеллекта скоро появится в европейских законах. В интервью агентству Reuters Тьерри Бретон, комиссар Евросоюза по вопросам внутреннего рынка, рассказал, что популярность ChatGPT вызывает опасения у политиков.
Над проблемой ИИ-безопасности активно работают и в научном сообществе: 10 января на сайте препринтов arXiv был опубликован отчет "Генеративные языковые модели и автоматизированные операции влияния: возникающие угрозы и потенциальные меры по их смягчению", составленный при участии OpenAI и Стэнфордского университета. Среди прочего, исследователи предупреждают об опасности массового распространения дезинформации, сгенерированной ИИ. Эксперты компании NewsGuard, которая борется с недостоверными данными, назвали ChatGPT "самым мощным инструментом для распространения дезинформации, который когда-либо был доступен в интернете". В интервью журналу TIME глава DeepMind Демис Хассабис даже призвал замедлить исследования и разработки, подобные ChatGPT, и продвигаться вперед с большой осторожностью:
Когда дело доходит до очень мощных технологий - очевидно, ИИ станет одной из самых мощных - нам необходимо быть осторожными. Не все сейчас понимают это. Они как экспериментаторы, которые не осознают, что у них в руках опасный материал.