Интернет-издание о бизнесе, стартапах и IT-технологиях

Популярные теги:
Главная страница / Читать / Новости / Meta прекратит разработку AGI, если он будет нести угрозу

Meta прекратит разработку AGI, если он будет нести угрозу

ИИ-программист Devin не оправдал ожиданий

CEO Meta Марк Цукерберг обещал сделать доступным искусственный интеллект общего назначения (AGI), способный выполнить любую задачу, доступную человеку. Однако в новом документе Meta провозглашает, что существуют определенные сценарии, при которых она не будет выпускать высокоэффективную ИИ-систему.

В документе Frontier AI Framework определены два типа систем ИИ, которые компания считает слишком опасными для выпуска: «высокий риск» и «критический риск».

По определению компании, системы «критического риска» способны помочь злоумышленникам в осуществлении химических, биологических и хакерских атак, что приведет к «катастрофическим последствиям». Системы «высокого риска» также могут облегчить проведение нападений, но с меньшими последствиями.

Мета приводит несколько примеров, таких как «автоматизированная сквозная компрометация защищенной корпоративной среды» или «распространение биологического оружия высокой степени поражения».

Список возможных катастроф в документе Meta далеко не исчерпывающий, но в него включены наиболее вероятные сценарии, которые могут возникнуть в результате выпуска мощной системы ИИ. Meta классифицирует системные риски на основе данных, полученных от внутренних и внешних исследователей.

Поделиться статьей в соц. сетях

Share on telegram
Share on twitter
Share on facebook
Share on whatsapp

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *