Разработчик Anthropic предоставит свои модели искусственного интеллекта Claude разведывательным и оборонным ведомствам США для анализа и обработки секретных данных. Соответствующий контракт подписан между Anthropic, Palantir и Amazon Web Services.
Благодаря партнерству ИИ-модель Claude станет доступен в среде Palantir Impact Level 6 (IL6) – аккредитованной оборонной системе, которая обрабатывает секретную и критически важную для национальной безопасности США информацию.
В пресс-релизе компании обозначили три основные задачи, стоящие перед Claude в оборонной и разведывательной сферах: выполнение операций с большими объемами сложных данных на высоких скоростях, выявление закономерностей и тенденций в этих данных, а также оптимизация процесса проверки и подготовки документов.
Этот шаг следует за более широкой тенденцией, когда ИИ-компании стремятся получить контракты с оборонными ведомствами и предприятиями: Meta предлагает свои модели Llama организациям, связанным с обеспечением национальной безопасности, а OpenAI стремится к более тесным связям с Министерством обороны США.
Хотя заявление о партнерстве говорит о широком потенциале интеллектуального анализа на основе ИИ, в нем говорится, что в этих операциях полномочия по принятию решений останутся за людьми.
С момента своего основания в 2021 году Anthropic позиционирует себя как компанию, которая использует этический и безопасный подход к разработке ИИ. Компания отличается от конкурентов вроде OpenAI тем, что применяет так называемые ответственные методы разработки и самостоятельно накладывает этические ограничения на свои модели.
Критики назвали сделку противоречащей целям Anthropic по обеспечению безопасности ИИ.
– Посмотрите, как они заботятся об «экзистенциальных рисках для человечества», – так прокомментировал сделку бывший соруководитель Google по этике ИИ Тимнит Гебру.
– Представьте, что в 2021 году основатели Anthropic, заботящиеся о безопасности и являющиеся эффективными альтруистами, скажут, что спустя всего три года после основания компании они будут подписывать партнерские соглашения для развертывания своей модели AI прямо на военных фронтах, – заметил ИИ-исследователь Набил С. Куреши.