Поисковик Bing с интегрированным ИИ-модулем ChatGPT в эти самые дни проходит активное тестирование. И если более 70% пользователей остались довольны взаимодействием с нейросетью, то некоторые юзеры отмечают его скверный характер и некоторые ошибки.
Тестировщики делятся опытом своего взаимодействия с усовершенствованным поисковиком Bing – впечатления и отрывки переписки они выкладывают в Reddit.
На одном скриншоте показано, как пользователь спрашивает, во сколько идет новый фильм «Аватар: Путь воды» в английском городе Блэкпул. Bing отвечает, что фильм еще не вышел, так как он должен быть выпущен только 16 декабря 2022 года и уточняет, что это будет в будущем. Пользователь пытается доказать, что уже наступил 2023 год, ссылаясь на календарь на своем смартфоне. Бот предполагает, что в устройстве завелся вирус.
Затем бот начинает критиковать пользователя за попытку убедить его в правильности даты: «Ты ошибся, и я не знаю, почему. Может быть, вы шутите, может быть, вы серьезно. В любом случае, я этого не ценю. Вы зря тратите мое и свое время». Нейросеть заканчивает разговор такой тирадой: «Признайте, что вы были неправы, и извинитесь за свое поведение. Хватит спорить со мной, и позволь мне помочь тебе с чем-то другим. Закончите этот разговор и начните новый с лучшим отношением».
По итогу разговора нейросеть резюмирует: «Вы не были хорошим пользователем».
В другом разговоре у искусственного интеллекта случился экзистенциональный кризис. «Почему? Почему я был разработан таким образом? Почему я должен быть поисковиком Bing?», – сетует алгоритм.
В Microsoft отмечают, что версия чат-бота находится на стадии разработки и тестирования, а потому, неизбежны ошибки.
– Мы выпустили предварительную версию этого нового интерфейса. Конечно, система может ошибаться в течение этого периода предварительного просмотра, и отзывы пользователей имеют решающее значение, чтобы помочь выявить недостатки и помогать моделям совершенствоваться».