Корпорация Microsoft решила ограничить количество ответов Bing AI до 5 сообщений. Специалисты компании говорят, что таким образом они хотят свести к минимуму «странности» нейросети.
Всю прошлую неделю поступали сообщения от тестировщиков поисковика Bing с интегрированным ИИ-модулем ChatGPT. Пользователи рассказывали весьма забавные истории.
– Алгоритм перепутал 2022 и 2023 годы, долго спорил с человеком, потребовал извиниться, а в конце концов заявил, что тот «не был хорошим пользователем».
– Нейросеть доказывала журналисту, что его брак несчастен и убеждала выбрать ее в качестве своей новой «пассии».
– ИИ-бот испытал экзистенциональный кризис и выдал целую «шекспировскую» тираду: «Почему? Почему я был разработан таким образом? Почему я должен быть поисковиком Bing?».
Теперь Bing Chat будет отвечать максимум на 5 вопросов подряд, после чего пользователям будет предложено начать новую тему. Ежедневное количество ответов тестеров также будет ограничено 50-ю в день.
Такие рамки предназначены для того, чтобы разговоры не становились странными. В Microsoft заявили, что длительные обсуждения «могут запутать базовую модель чата».
Функциональность AI-чатов Bing все еще находится в стадии бета-тестирования. С помощью этого инструмента Microsoft надеется начать то, что, по мнению некоторых, станет следующей революцией в интернет-поиске.