Интернет-издание о бизнесе, стартапах и IT-технологиях

Популярные теги:
Главная страница / Читать / Новости / ИИ Claude будет обрабатывать секретные материалы правительства

ИИ Claude будет обрабатывать секретные материалы правительства

Разработчик Anthropic предоставит свои модели искусственного интеллекта Claude разведывательным и оборонным ведомствам США.
Новые правила для общественного Wi-Fi в Казахстане: что изменится?

Разработчик Anthropic предоставит свои модели искусственного интеллекта Claude разведывательным и оборонным ведомствам США для анализа и обработки секретных данных. Соответствующий контракт подписан между Anthropic, Palantir и Amazon Web Services.

Благодаря партнерству ИИ-модель Claude станет доступен в среде Palantir Impact Level 6 (IL6) – аккредитованной оборонной системе, которая обрабатывает секретную и критически важную для национальной безопасности США информацию.

В пресс-релизе компании обозначили три основные задачи, стоящие перед Claude в оборонной и разведывательной сферах: выполнение операций с большими объемами сложных данных на высоких скоростях, выявление закономерностей и тенденций в этих данных, а также оптимизация процесса проверки и подготовки документов.

Этот шаг следует за более широкой тенденцией, когда ИИ-компании стремятся получить контракты с оборонными ведомствами и предприятиями: Meta предлагает свои модели Llama организациям, связанным с обеспечением национальной безопасности, а OpenAI стремится к более тесным связям с Министерством обороны США.

Хотя заявление о партнерстве говорит о широком потенциале интеллектуального анализа на основе ИИ, в нем говорится, что в этих операциях полномочия по принятию решений останутся за людьми.

С момента своего основания в 2021 году Anthropic позиционирует себя как компанию, которая использует этический и безопасный подход к разработке ИИ. Компания отличается от конкурентов вроде OpenAI тем, что применяет так называемые ответственные методы разработки и самостоятельно накладывает этические ограничения на свои модели.

Критики назвали сделку противоречащей целям Anthropic по обеспечению безопасности ИИ.

– Посмотрите, как они заботятся об «экзистенциальных рисках для человечества», – так прокомментировал сделку бывший соруководитель Google по этике ИИ Тимнит Гебру.

– Представьте, что в 2021 году основатели Anthropic, заботящиеся о безопасности и являющиеся эффективными альтруистами, скажут, что спустя всего три года после основания компании они будут подписывать партнерские соглашения для развертывания своей модели AI прямо на военных фронтах, – заметил ИИ-исследователь Набил С. Куреши.

Поделиться статьей в соц. сетях

Share on telegram
Share on twitter
Share on facebook
Share on whatsapp

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *