Интернет-издание о бизнесе, стартапах и IT-технологиях

Популярные теги:
Главная страница / Читать / Технологии / OpenAI изучит «катастрофические» риски ИИ, включая ядерные угрозы

OpenAI изучит «катастрофические» риски ИИ, включая ядерные угрозы

Компания OpenAI объявила о создании новой группы, которая будет заниматься анализом, оценкой и исследованием моделей ИИ для защиты от катастрофических рисков.
OpenAI изучит «катастрофические» риски ИИ, включая ядерные угрозы

Компания OpenAI объявила о создании новой группы, которая будет заниматься анализом, оценкой и исследованием моделей ИИ для защиты от катастрофических рисков.

Обязанностями членов группы Preparedness станут отслеживание, прогнозирование и защита от опасностей, которые могут представлять собой будущие системы искусственного интеллекта: от их способности убеждать и обманывать людей и возможностей генерирования вредоносного кода до ядерных, химических и бактериологических угроз.

В задачи группы входит создание политики разработки ИИ с учетом предполагаемых рисков. По словам представителей OpenAI, этот документ должен дополнить другие работы компании в области безопасности ИИ, уделяя особое внимание фазам до и после развертывания модели

– Мы считаем, что модели ИИ, которые будут превосходить возможности самых передовых существующих моделей, потенциально могут принести пользу всему человечеству. Но они также несут в себе все более серьезные риски. Мы должны обеспечить понимание и инфраструктуру, необходимые для безопасности высокоэффективных систем ИИ.

По мнению руководства OpenAI, нейросети с интеллектом, превышающим человеческий, могут появиться в течение десятилетия, и этот ИИ не обязательно будет доброжелательным, что потребует поиска способов его ограничения и сдерживания.

Поделиться статьей в соц. сетях

Share on telegram
Share on twitter
Share on facebook
Share on whatsapp

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *