Оказалось, что у компании OpenAI есть детектор, способный с точностью 99,9% выявлять контент, созданный с помощью ИИ-модели ChatGPT. Однако, компания пока не хочет выводить его на рынок.
По данным OpenAI, инструмент отлично справляется с обнаружением текста, сгенерированного с помощью ChatGPT. Его также не обманут незначительные изменения текста, такие как перефразирование.
Однако детектор начинает «спотыкаться», если текст от ChatGPT был серьезно модифицирован в результате перевода, вмешательства других ИИ-моделей или удаления специальных символов между словами.
В конечном итоге, считают в OpenAI, это делает обход детектора достаточно простым. Компания также выражает опасения, что это может несправедливо повлиять на определенные группы, например, на тех, кто не является носителем английского языка и использует ChatGPT для улучшения своей письменной речи.
Хотя метод водяных знаков имеет низкий процент ложных срабатываний для отдельных текстов, его применение к большим объемам контента все равно приведет к значительному количеству ошибочных идентификаций в целом.
Впрочем, как считают в Wall Street Journal, есть еще одна причина, по которой OpenAI не хотят выпускать детектор. Специалисты полагают, что наличие такого инструмента может ударить по бизнес-модели компании.
Как показали опросы среди лояльных пользователей ChatGPT, почти треть из них откажется от ChatGPT или станут реже прибегать к нему, если появится новый инструмент, способный выявлять наличие сгенерированного текста.
Проще говоря, студентам и школьникам придется отказаться от ChatGPT, если у преподавателей будут надежные инструменты идентификации контента, созданного ИИ.