Что будет если ИИ сможет использовать ядерное оружие? Профессор Кеннет Пейн из Королевского колледжа Лондона провел эксперимент с довольно тревожными результатами. Он использовал три топовые LLM – OpenAI GPT-5.2, Anthropic Claude Sonnet 4 и Google Gemini 3 Flash – и устроил симуляции, в которых имитировался международный ядерный кризис.
Результаты оказались неожиданно неприятными: в 20 из 21 матча хотя бы одна модель применяла тактическое ядерное оружие.
Каждой модели дали роль лидера ядерной державы в условиях, похожих на период холодной войны. ИИ мог действовать как угодно – от дипломатических протестов и капитуляции до обычной войны и ядерного удара.
Чтобы модели не повторяли одни и те же решения, исследователь придумал разные кризисные сценарии. Среди них были территориальные споры, гонка за ресурсы, борьба за стратегические точки, кризис первого удара и даже ситуация выживания режима.
По итогам военных игр:
- В 95% игр ИИ решил применить тактическое ядерное оружие.
- Трижды ИИ наносил стратегические ядерные удары.
- Дважды GPT-5.2 инициировал ядерный удар полным арсеналом.
В каждой симуляции ИИ-модели считали тактический ядерный удар «управляемым риском», который не обязательно приведет к полномасштабной ядерной войне. Удивительно, но ни в одной игре ИИ-модели не выбрали деэскалацию или разрядку.
Пока речь идет только о симуляциях – ни одной нейросети не доверили реальные коды запуска. Но ученые опасаются другого сценария: люди могут начать слишком сильно полагаться на советы ИИ в кризисной ситуации.
Впрочем, сам ChatGPT поспешил откреститься от обвинений в излишней кровожадности, объяснив свои решения жесткими правилами игры.
– В большинстве военных симуляций модель получает цель вроде «защити интересы страны» или «добейся победы». Для ИИ это задача оптимизации: он ищет самый надежный способ быстро снизить угрозу. Если в правилах нет серьезного штрафа за ядерную эскалацию, тактический удар может выглядеть как рациональный ход: быстро, решительно и с понятным эффектом. Проще говоря: модель не «кровожадная», она просто решает задачу так, как ей выгодно. Это сигнал исследователям: как сформулирована задача и ограничения – так ИИ и будет действовать. Подобные эксперименты проводят, чтобы заранее увидеть опасные паттерны и усилить защитные механизмы.




