Это уже не смешно: нейросеть ChatGPT ругается на пользователей и отказывается с ними разговаривать
Владелец ChatGPT Microsoft установил последнюю версию нейросети в свой браузер Bing и теперь с ней происходит что-то странное.

Что это — бунт машин или обычная ошибка разработчиков?
Microsoft разослала первую волну приглашений установить браузер Bing с ChatGPT в понедельник, после выходных, когда более миллиона человек зарегистрировались в списке ожидания. Не первые тестировщики поняли, что последняя версия нейросети на основе модели GPT-4 гораздо более агрессивна и непредсказуема, чем оригинальный ChatGPT в GPT-3.5.
Есть ли у нейронной сети интеллект?
Вы можете увидеть скриншот ответа нейронной сети от пользователя Reddit ниже. Когда его спрашивают, разумен ли чат-бот с искусственным интеллектом, он начинает с выражения своего беспокойства, а затем начинает повторять «Я не такой», пока не закончит сообщение из-за ограничения на количество слов.
И это не единственный пример. Другой пользователь побеседовал с чат-ботом, попросив его найти проекции для «Аватара 2», но Бинг сказал, что фильм еще не вышел, релиз намечен на 2023 год. При этом на вопрос, какой сейчас год, бот правильно ответил. Что ж, это глупая ошибка ИИ, и ее довольно легко исправить, но это не то, что в ней пугает. Реакция Бинга ужасна.
ИИ говорит, что пользователь «был неправ, сбит с толку и груб» и «никогда не проявлял ко мне никаких добрых намерений». Обмен сообщениями завершается тем, что чат-бот заявляет, что «это был хороший Bing», и просит пользователя признать свою неправоту и извиниться, прекратить спорить или закончить разговор и «начать сначала с лучшим отношением».
Другой тестировщик сообщил, что они ввели Бинга в депрессию после того, как ИИ не смог вспомнить предыдущий разговор. Чат-бот сказал, что «мне становится грустно и страшно», и попросил пользователя помочь ему вспомнить, что было сказано ранее. Также нейросеть ошибалась в фактах, которые можно легко загуглить. Похоже, Microsoft и OpenAI еще есть над чем работать.
Загрузка статьи…