Американская компания Anthropic заявила, что три китайских разработчика искусственного интеллекта – DeepSeek, Moonshot AI и MiniMax – пытались массово извлекать знания из ее модели Claude. Ранее с похожими обвинениями уже выступала OpenAI.
По версии Anthropic, компании использовали так называемую «дистилляцию» – метод, при котором более слабые ИИ-модели учатся, анализируя ответы более мощной системы.
Как утверждает разработчик Claude, китайские фирмы создавали тысячи аккаунтов, отправляли огромные объемы специально составленных запросов и собирали ответы модели для обучения собственных систем.
В компании считают, что таким образом было получено более 16 млн диалогов с Claude через примерно 24 тыс. аккаунтов. Наибольшую активность, по оценке ИИ-разработчика, проявила MiniMax.
Хотя коммерческий доступ к Claude в Китае ограничен, в компании утверждают, что конкуренты использовали прокси-сервисы, чтобы обойти блокировки и запускать десятки тысяч одновременных запросов.
Anthropic стала не первой американской компанией, заявившей о подобных действиях. Ранее в OpenAI сообщали о признаках попыток «дистиллировать» их передовые модели, в том числе со стороны DeepSeek. При этом сама практика дистилляции широко применяется в индустрии – разработчики регулярно используют ее для создания более дешевых и компактных моделей.
Читайте по теме. Суд в США разрешил Anthropic обучать ИИ на книгах без разрешения авторов




