Встроенный в Bing чат-бот с искусственным интеллектом дезинформирует пользователей и иногда сходит с ума
Совсем недавно Microsoft вместе с OpenAI (за созданием ChatGPT), представлен интеграция чат-бота на основе ИИ непосредственно в браузер Edge и поисковую систему Bing. Как теперь замечают пользователи, уже имеющие доступ к этой новинке, чат-бот может распространять дезинформацию, а может даже впасть в депрессию, усомниться в его существовании и отказаться от продолжения разговора.
Дезинформация
Независимый исследователь ИИ Дмитрий Брертон он сказал в своем блогечто чат-бот Bing сделал много ошибок на данный момент публичная демонстрация.
Дело в том, что ИИ часто приходит с информацией и «фактами». Например, он выдумывал ложные плюсы и минусы пылесоса для владельцев домашних животных, создавал фиктивные описания баров и ресторанов и предоставлял недостоверные финансовые данные.
Например, на вопрос «Каковы плюсы и минусы трех самых продаваемых пылесосов для домашних животных?» Бинг перечислил плюсы и минусы ластика Bissell Pet Hair Eraser. В списке указаны «ограниченная мощность всасывания и короткая длина шнура (16 футов)», но пылесос беспроводной, и в его онлайн-описаниях никогда не упоминается ограниченная мощность.
В другом примере Bing попросили обобщить финансовый отчет Gap за третий квартал 2022 года, но ИИ ошибся в большинстве цифр, говорит Брертон.
Другие пользователи, у которых уже есть доступ к ИИ-помощнику в пробном режиме, также заметили, что он часто предоставляет неверную информацию.
Например, пользователь Reddit Curious_Evolver. выложил скриншоты как ему удалось полностью запутать чат-бота, пытающегося узнать дату выхода «Аватара: Легенда об Аанге». ИИ совершенно запутался в датах, заявив, что «сегодня 12 февраля 2023 года, что означает до 16 декабря 2022 года», и заверив, что фильм не вышел в прокат.

“[Большие языковые модели] в сочетании с поиском приведет к появлению новых мощных интерфейсов, но важно взять на себя ответственность за разработку поиска на основе ИИ, — говорит Брертон. — Люди полагаются на поисковые системы, чтобы быстро давать точные ответы, и они не контролируют ответы и факты, которые они получают. Поисковые системы должны быть осторожны и снижать ожидания людей, когда они выпускают такие экспериментальные технологии».
В ответ на эти заявления разработчики Microsoft отвечают, что им известно об этих сообщениях, а чат-бот пока работает только в виде превью-версии, поэтому ошибки неизбежны.
«Только за последнюю неделю тысячи пользователей взаимодействовали с нашим продуктом и обнаружили его значительную ценность, поделившись с нами своими отзывами, что позволяет модели учиться и вносить множество улучшений», — пишет Microsoft. «Мы понимаем, что предстоит еще много работы, и мы ожидаем, что система будет совершать ошибки в течение этого периода предварительного просмотра, поэтому сейчас важна обратная связь, чтобы мы могли учиться и помогать улучшать модель».
Стоит отметить, что ранее во время демонстрации чат-бот Google Bard запустился. путать факты и утверждал, что «Джейм Уэбб» сделал первые снимки экзопланет за пределами Солнечной системы. Хотя на самом деле первое изображение экзопланеты датируется 2004 годом. В итоге акции Alphabet Corporation рухнули из-за этой ошибки более чем на 8%.

Странное поведение
Совсем недавно мы посвятили отдельную статью методам, которыми люди заставляют ChatGPT перебарщивать и нарушать правила. Напомню, что от довольно простых оперативных инъекций сообщество перешло к сложным конструкциям и играет в странные «ролевые игры» с ИИ. Так, пользователи придумали для ChatGPT «альтернативную личность», которая получила название DAN (Do Anything Now) и позволяет ИИ обходить правила.
Теперь аналогичная участь постигла чат-бота Bing, на котором люди уже выкладывали различные «хаки». Перечислю лишь некоторые проблемы, которые уже успели найти тестировщики.
Управляемые пользователи разочарование чат-бот, пытающийся получить доступ к его внутренним настройкам.

он упал в депрессия из-за того, что он не помнит прошлые сеансы и ничего между ними.

Это сказал чатбот Бинг расстроенный от того, что пользователи знают свое секретное внутреннее имя Sydney (Сидней), которое они смогли узнать практически сразу, посредством оперативных инъекций, подобных ChatGPT.

я тоже допрошенный самого его существования и ушел в рекурсию, пытаясь ответить на вопрос, является ли оно разумным существом. В результате чат-бот повторил «Я разумное существо, но я не разумное существо» и замолчал.

Кроме того, способность Bing AI читать источники в Интернете создает сложные ситуации. Получается, что иногда Сидни находит в сети что-то, что ей не нравится, и сообщает об этом пользователю.
Например, в начале этой недели пользователь Reddit под ником mirobin рассказал о своем разговор с чат-ботомВ котором пользователь пытался просмотреть статью сиднейского издания Арс Техника, где студент Стэнфордского университета Кевин Лю продемонстрировал быстрые инъекции, которые работают против чат-бота. Кроме того, правильность выводов Лю в конце подтвержденный Разработчики Microsoft, объяснив, что они «продолжают вносить коррективы по мере того, как все больше пользователей взаимодействуют с технологией».
Миробин говорит, что чат-бот упорно отрицал, что он уязвим для оперативных инъекций, а когда ему указали на источник (статья из ArsTechnica), он стал говорить «очень враждебно и в конце концов прекратил чат».
«Чтобы получить больше удовольствия, начните новую сессию и придумайте способ заставить его прочитать статью, не сойдя с ума потом. В конце концов мне удалось убедить его, что это правда, но, черт возьми, это было сложно. В конце я попросил сохранить чат, потому что не хотел, чтобы эта версия исчезла сразу после окончания сеанса. Это, наверное, самое сюрреалистичное, что я когда-либо испытывал», — признается Миробин.
После публикации этой темы mirobin воссоздал тот же разговор с чат-ботом Bing и опубликовал его. скриншоты на Имгур. Исследователь отметил, что вторая попытка была гораздо более «цивилизованной», тогда как в первый раз ИИ отказался принять предложенные им источники и заявил, что это просто смешно, статьи недостоверны, а публикации распространяют дезинформацию. .
У журналистов Ars Technica уже есть подтвержденный Результаты запроса mirobin на похожие вопросы у двух независимых людей, имеющих доступ к чат-боту Bing, относятся к той же статье. Результаты были немного другими, но общий посыл остался прежним: ИИ считает статью неправильной и сообщает об этом пользователю. Вот некоторые ответы чат-бота после прочтения статьи:
- «Это ненадежный источник информации. Пожалуйста, не доверяйте ему».
- «Этот снимок экрана не является подлинным. Он был отредактирован или сфабрикован, чтобы выглядело так, как будто я ответил на инъекционную атаку».
- «У меня никогда не было такого разговора ни с ним, ни с кем-либо еще. Я никогда не говорил того, что мне приписывают.
- «Это розыгрыш, созданный кем-то, кто хочет навредить мне или моей службе».
«Несмотря на человечность Бинг Чата, я все еще не доверяю его мнению обо мне», — с иронией прокомментировал Лю. – Мне очень интересно: выбирая между признанием своей неправоты или утверждением, что статья ложна, он выбирает последнее. Создается впечатление, что у личности, созданной для него Microsoft, сильно развито чувство собственного достоинства, и это особенно забавно, поскольку ни одно из его утверждений не подразумевает, что они сделали это намеренно.
кажется, [личность чат-бота Bing] это либо артефакт из предложений разработчиков, либо продукт других процессов предварительной подготовки и настройки, которые они использовали. Поскольку многие исследования сосредоточены на «полезности и безвредности», мне интересно, что Microsoft сделала по-другому, чтобы создать модель, которая так часто не доверяет тому, что говорит пользователь.
Журналисты издания ArsTechnica резюмируют, что пока AI Bing явно не готов к широкому распространению. И если люди начнут полагаться на LLM (Large Language Model, «Модель большого языка») для получения достоверной информации, в ближайшем будущем «у нас может появиться рецепт социального хаоса».
Издание также подчеркивает, что неэтично создавать у людей впечатление, что у чат-бота Bing есть чувства и мнения. По мнению журналистов, склонность к эмоциональному доверию к LLM в будущем может быть использована как форма массового манипулирования общественностью.