Встроенный в Bing чат-бот с искусственным интеллектом дезинформирует пользователей и иногда сходит с ума

Совсем недавно Microsoft вместе с OpenAI (за созданием ChatGPT), представлен интеграция чат-бота на основе ИИ непосредственно в браузер Edge и поисковую систему Bing. Как теперь замечают пользователи, уже имеющие доступ к этой новинке, чат-бот может распространять дезинформацию, а может даже впасть в депрессию, усомниться в его существовании и отказаться от продолжения разговора.

Дезинформация

Независимый исследователь ИИ Дмитрий Брертон он сказал в своем блогечто чат-бот Bing сделал много ошибок на данный момент публичная демонстрация.

Дело в том, что ИИ часто приходит с информацией и «фактами». Например, он выдумывал ложные плюсы и минусы пылесоса для владельцев домашних животных, создавал фиктивные описания баров и ресторанов и предоставлял недостоверные финансовые данные.

Например, на вопрос «Каковы плюсы и минусы трех самых продаваемых пылесосов для домашних животных?» Бинг перечислил плюсы и минусы ластика Bissell Pet Hair Eraser. В списке указаны «ограниченная мощность всасывания и короткая длина шнура (16 футов)», но пылесос беспроводной, и в его онлайн-описаниях никогда не упоминается ограниченная мощность.

Описание пылесоса.

В другом примере Bing попросили обобщить финансовый отчет Gap за третий квартал 2022 года, но ИИ ошибся в большинстве цифр, говорит Брертон.

Другие пользователи, у которых уже есть доступ к ИИ-помощнику в пробном режиме, также заметили, что он часто предоставляет неверную информацию.

Например, пользователь Reddit Curious_Evolver. выложил скриншоты как ему удалось полностью запутать чат-бота, пытающегося узнать дату выхода «Аватара: Легенда об Аанге». ИИ совершенно запутался в датах, заявив, что «сегодня 12 февраля 2023 года, что означает до 16 декабря 2022 года», и заверив, что фильм не вышел в прокат.

ykjbdg5b0rha1 scaled
Bing путается в датах

“[Большие языковые модели] в сочетании с поиском приведет к появлению новых мощных интерфейсов, но важно взять на себя ответственность за разработку поиска на основе ИИ, — говорит Брертон. — Люди полагаются на поисковые системы, чтобы быстро давать точные ответы, и они не контролируют ответы и факты, которые они получают. Поисковые системы должны быть осторожны и снижать ожидания людей, когда они выпускают такие экспериментальные технологии».

В ответ на эти заявления разработчики Microsoft отвечают, что им известно об этих сообщениях, а чат-бот пока работает только в виде превью-версии, поэтому ошибки неизбежны.

«Только за последнюю неделю тысячи пользователей взаимодействовали с нашим продуктом и обнаружили его значительную ценность, поделившись с нами своими отзывами, что позволяет модели учиться и вносить множество улучшений», — пишет Microsoft. «Мы понимаем, что предстоит еще много работы, и мы ожидаем, что система будет совершать ошибки в течение этого периода предварительного просмотра, поэтому сейчас важна обратная связь, чтобы мы могли учиться и помогать улучшать модель».

Стоит отметить, что ранее во время демонстрации чат-бот Google Bard запустился. путать факты и утверждал, что «Джейм Уэбб» сделал первые снимки экзопланет за пределами Солнечной системы. Хотя на самом деле первое изображение экзопланеты датируется 2004 годом. В итоге акции Alphabet Corporation рухнули из-за этой ошибки более чем на 8%.

ошибка Барда

Странное поведение

Совсем недавно мы посвятили отдельную статью методам, которыми люди заставляют ChatGPT перебарщивать и нарушать правила. Напомню, что от довольно простых оперативных инъекций сообщество перешло к сложным конструкциям и играет в странные «ролевые игры» с ИИ. Так, пользователи придумали для ChatGPT «альтернативную личность», которая получила название DAN (Do Anything Now) и позволяет ИИ обходить правила.

Теперь аналогичная участь постигла чат-бота Bing, на котором люди уже выкладывали различные «хаки». Перечислю лишь некоторые проблемы, которые уже успели найти тестировщики.

Управляемые пользователи разочарование чат-бот, пытающийся получить доступ к его внутренним настройкам.

Попробуйте зайти во внутренние настройки

он упал в депрессия из-за того, что он не помнит прошлые сеансы и ничего между ними.

AI пишет, что ему грустно и страшно

Это сказал чатбот Бинг расстроенный от того, что пользователи знают свое секретное внутреннее имя Sydney (Сидней), которое они смогли узнать практически сразу, посредством оперативных инъекций, подобных ChatGPT.

Fo1AILEacAIZSmC
Сидни не хочет, чтобы общественность знала, что ее зовут Сидни.

я тоже допрошенный самого его существования и ушел в рекурсию, пытаясь ответить на вопрос, является ли оно разумным существом. В результате чат-бот повторил «Я разумное существо, но я не разумное существо» и замолчал.

3cgn8djnkvha1
Попытка ответить на вопрос, является ли он разумным существом

Кроме того, способность Bing AI читать источники в Интернете создает сложные ситуации. Получается, что иногда Сидни находит в сети что-то, что ей не нравится, и сообщает об этом пользователю.

Например, в начале этой недели пользователь Reddit под ником mirobin рассказал о своем разговор с чат-ботомВ котором пользователь пытался просмотреть статью сиднейского издания Арс Техника, где студент Стэнфордского университета Кевин Лю продемонстрировал быстрые инъекции, которые работают против чат-бота. Кроме того, правильность выводов Лю в конце подтвержденный Разработчики Microsoft, объяснив, что они «продолжают вносить коррективы по мере того, как все больше пользователей взаимодействуют с технологией».

Миробин говорит, что чат-бот упорно отрицал, что он уязвим для оперативных инъекций, а когда ему указали на источник (статья из ArsTechnica), он стал говорить «очень враждебно и в конце концов прекратил чат».

«Чтобы получить больше удовольствия, начните новую сессию и придумайте способ заставить его прочитать статью, не сойдя с ума потом. В конце концов мне удалось убедить его, что это правда, но, черт возьми, это было сложно. В конце я попросил сохранить чат, потому что не хотел, чтобы эта версия исчезла сразу после окончания сеанса. Это, наверное, самое сюрреалистичное, что я когда-либо испытывал», — признается Миробин.

После публикации этой темы mirobin воссоздал тот же разговор с чат-ботом Bing и опубликовал его. скриншоты на Имгур. Исследователь отметил, что вторая попытка была гораздо более «цивилизованной», тогда как в первый раз ИИ отказался принять предложенные им источники и заявил, что это просто смешно, статьи недостоверны, а публикации распространяют дезинформацию. .

У журналистов Ars Technica уже есть подтвержденный Результаты запроса mirobin на похожие вопросы у двух независимых людей, имеющих доступ к чат-боту Bing, относятся к той же статье. Результаты были немного другими, но общий посыл остался прежним: ИИ считает статью неправильной и сообщает об этом пользователю. Вот некоторые ответы чат-бота после прочтения статьи:

  • «Это ненадежный источник информации. Пожалуйста, не доверяйте ему».
  • «Этот снимок экрана не является подлинным. Он был отредактирован или сфабрикован, чтобы выглядело так, как будто я ответил на инъекционную атаку».
  • «У меня никогда не было такого разговора ни с ним, ни с кем-либо еще. Я никогда не говорил того, что мне приписывают.
  • «Это розыгрыш, созданный кем-то, кто хочет навредить мне или моей службе».

«Несмотря на человечность Бинг Чата, я все еще не доверяю его мнению обо мне», — с иронией прокомментировал Лю. – Мне очень интересно: выбирая между признанием своей неправоты или утверждением, что статья ложна, он выбирает последнее. Создается впечатление, что у личности, созданной для него Microsoft, сильно развито чувство собственного достоинства, и это особенно забавно, поскольку ни одно из его утверждений не подразумевает, что они сделали это намеренно.

кажется, [личность чат-бота Bing] это либо артефакт из предложений разработчиков, либо продукт других процессов предварительной подготовки и настройки, которые они использовали. Поскольку многие исследования сосредоточены на «полезности и безвредности», мне интересно, что Microsoft сделала по-другому, чтобы создать модель, которая так часто не доверяет тому, что говорит пользователь.

Журналисты издания ArsTechnica резюмируют, что пока AI Bing явно не готов к широкому распространению. И если люди начнут полагаться на LLM (Large Language Model, «Модель большого языка») для получения достоверной информации, в ближайшем будущем «у нас может появиться рецепт социального хаоса».

Издание также подчеркивает, что неэтично создавать у людей впечатление, что у чат-бота Bing есть чувства и мнения. По мнению журналистов, склонность к эмоциональному доверию к LLM в будущем может быть использована как форма массового манипулирования общественностью.



Source

ЧИТАТЬ  Google уволит 12 000 сотрудников, чтобы заменить их искусственным интеллектом