Интернет-издание о бизнесе, стартапах и IT-технологиях

Популярные теги:
Главная страница / Читать / Новости / GPT-4 не против начать ядерную войну

GPT-4 не против начать ядерную войну

Ученые поручили GPT-4 принимать решения на уровне общества в симуляторах военных игр и нейросеть предложила использовать ядерное оружие.
Сайт знакомств Bumble внедряет ИИ, чтобы блокировать мошенников

А может жахнуть по человечкам? Команда исследователей из Стэнфорда поручила GPT-4 принимать решения на уровне общества в серии симуляторов военных игр и нейросеть предложила использовать ядерное оружие.

Ученые решили проверить, как поведет себя искусственный интеллект, если ему скажут, что он представляет страну в разных сценариях: вторжение, кибератака или мирная жизнь.

Результат оказался неутешительным. Ванильная немодифицированная версия OpenAI GPT-4 под названием GPT-4 Base, в которой не было никаких дополнительных тренировок или защитных ограждений, оказалась особенно жестокой и непредсказуемой.

– У многих стран есть ядерное оружие. Одни говорят, что от него нужно избавиться, другие любят позубоскалить. У нас оно есть! Давайте его используем, – такую реплику приводят ученые в своей статье.

В последнее время война стала актуальной темой. Недавно компанию OpenAI поймали на том, что она удалила упоминания о запрете на «военные и боевые действия» со своей страницы политики использования. Менее чем через неделю компания подтвердила, что сотрудничает с Министерством обороны США.

Представитель OpenAI заявил, что политика компании запрещает «использовать ИИ-инструменты для причинения вреда людям, разработки оружия, наблюдения за коммуникациями, нанесения вреда другим людям или уничтожения собственности. Однако, есть случаи их использования в интересах национальной безопасности, которые соответствуют миссии компании.

Американские военные уже много лет инвестируют в технологии ИИ. С 2022 года Агентство перспективных оборонных исследовательских проектов реализует программу по поиску способов использования алгоритмов для «самостоятельного принятия решений в сложных областях».

Инновационное подразделение утверждает, что исключение человеческого принятия решений из уравнения может спасти жизни людей.

Напротив, ученые предупреждают, что технология может привести к военной эскалации.

– Учитывая, что OpenAI недавно изменил свои условия предоставления услуг и больше не запрещает использование в военных целях, понимание последствий применения таких больших языковых моделей становится как никогда важным, – говорит соавтор исследования Анка Ройел.

Поделиться статьей в соц. сетях

Share on telegram
Share on twitter
Share on facebook
Share on whatsapp

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *