CEO Meta Марк Цукерберг обещал сделать доступным искусственный интеллект общего назначения (AGI), способный выполнить любую задачу, доступную человеку. Однако в новом документе Meta провозглашает, что существуют определенные сценарии, при которых она не будет выпускать высокоэффективную ИИ-систему.
В документе Frontier AI Framework определены два типа систем ИИ, которые компания считает слишком опасными для выпуска: «высокий риск» и «критический риск».
По определению компании, системы «критического риска» способны помочь злоумышленникам в осуществлении химических, биологических и хакерских атак, что приведет к «катастрофическим последствиям». Системы «высокого риска» также могут облегчить проведение нападений, но с меньшими последствиями.
Мета приводит несколько примеров, таких как «автоматизированная сквозная компрометация защищенной корпоративной среды» или «распространение биологического оружия высокой степени поражения».
Список возможных катастроф в документе Meta далеко не исчерпывающий, но в него включены наиболее вероятные сценарии, которые могут возникнуть в результате выпуска мощной системы ИИ. Meta классифицирует системные риски на основе данных, полученных от внутренних и внешних исследователей.