OpenAI отключила детектор искусственного интеллекта, который должен был определять, какой текст написан нейросетью, а какой человеком. После нескольких месяцев использования выяснилось, что функция работает крайне неэффективно. Проблемы детектора признали сами разработчики.
– Детектор AI больше недоступен из-за его низкого уровня точности. Мы исследуем более эффективные методы определения происхождения текста, а также взяли на себя обязательство разработать и внедрить механизмы, позволяющие пользователям понимать, создан ли аудио- или визуальный контент искусственным интеллектом, – говорится в обращении компании.
Детектор был бесплатным. Пользователи сети могли копировать и вставлять в него текст, чтобы проверить, был ли материал сгенерирован компьютером или человеком.
ПО основано на большой языковой модели, которая оценивала, какая часть контента, вероятно, была сгенерирована программным обеспечением, от «очень вероятно» до «неясно» и «маловероятно».
После выхода детектора в OpenAI сразу признали, что функция «не полностью надежна». Компания запустила идентификатор с искусственным интеллектом после растущих опасений, что учащиеся используют машинный контент для выполнения домашних заданий.
При запуске OpenAI призвала преподавателей не воспринимать предсказания модели как евангелие, а использовать ее в качестве руководства, дополняющего другие методы определения источника фрагмента текста.