В последнее время работу авторов стали проверять при помощи детекторов ИИ. Однако, из-за ненадежности и предвзятости этих инструментов, авторы, журналисты и писатели все чаще попадают в «черный список» и теряют работу.
Когда ChatGPT прогремел на весь мир, это вызвало лихорадочный поиск способов поймать людей, пытающихся выдать текст, написанный искусственным интеллектом, за свое собственное творчество. Появилось множество стартапов, пытающихся заполнить пустоту с помощью инструментов обнаружения ИИ, такие как Copyleaks, GPTZero, Originality.AI и Winston AI. Это очень выгодный бизнес в условиях, когда вокруг полно мошенников. Стартапы утверждают, что точность их инструментов достигает 99,98%.
Однако, как оказывается, все эти инструменты ошибаются, что стоит работы и доходов добросовестным авторам.
Кимберли Гасурас отработала 24 года репортером в новостях. Она не нуждается в ИИ-помощнике, чтобы написать заметку или пост для блога. Долгое время женщина подрабатывала на платформе для фрилансеров WritersAccess, где писала статьи для малых и средних компаний. Но в середине 2023 года доходы резко упали, поскольку некоторые клиенты перешли на ChatGPT. Затем пришло письмо, поставившее точку в ее карьере на WritersAccess.
– Я получила сообщение, в котором говорилось, что они отметили мою работу как искусственный интеллект с помощью инструмента под названием Originality.AI. Я была ошарашена. Я пыталась доказать оригинальность своих текстов, но через несколько месяцев WritersAccess все равно выгнали меня с платформы. Они сказали, что мой аккаунт был приостановлен из-за чрезмерного использования ИИ. Я не могла в это поверить.
В похожей ситуации оказался копирайтер Марк из Огайо.
– Я получил письмо, в котором говорилось, что моя последняя статья получила 95-процентную вероятность создания ИИ. Я был в шоке. Мне казалось нелепым, что они обвиняют меня после трех лет совместной работы, задолго до появления ChatGPT. Я отправил копию документа Google Doc с отметками времени, свидетельствующими о том, что он писал документ самостоятельно. Этого было недостаточно. Меня выгнали с платформы, и я теперь работаю в местном магазине.
По словам экспертов, детекторы ИИ гораздо менее надежны, чем обещают их создатели. Они часто ошибаются, а жертвами подобных недоработок оказываются добросовестные авторы, которых обвиняют в плагиате и использовании нейросетей.
– Эта технология работает не так, как ее рекламируют, – говорит соучредитель компании Undetectable AI Барс Юхаз. – Эти ребята утверждают, что их точность составляет 99%. Это невозможно. Но даже если это правда, то на каждые 100 человек будет один ложный «флаг». Мы говорим о средствах к существованию и репутации людей.
Как правило, детекторы ИИ работают, обнаруживая признаки искусственного письма, такие как безупречная грамматика и пунктуация. Но шутка в том, что платформы заставляют авторов использовать ИИ-инструменты для исправления ошибок и улучшения текста, такие как Grammarly. Как итог, одна ИИ-модель помогает сделать текст таким, чтобы другая ИИ-модель определила его, как созданный нейросетью.
Многие компании уже отказались использовать детекторы ИИ по причине их ненадежности. В 2023 году компания OpenAI выпустила собственный детектор ИИ, чтобы развеять опасения по поводу своих продуктов, но уже через несколько месяцев сняла его с продажи «из-за низкой точности».
Впрочем, профессионалы признают, что экономике нужны надежные детекторы ИИ.
– Мы видим будущее, в котором, если ничего не изменить, ИИ будет диктовать свои правила в интернете, будь то новости, рецензируемые статьи или маркетинг. Вы даже не будете знать, реален ли человек, с которым вы общаетесь в социальных сетях. Нам нужно решение для массового подтверждения знаний и определения того, является ли контент качественным, подлинным и законным, – резюмирует главный технолог компании GPTZero Алекс Цуй.