ИИ-модели применяли ядерное оружие в 95% симуляций военных конфликтов

Продвинутые языковые модели готовы нажать на ядерную кнопку куда охотнее людей – к такому выводу пришёл исследователь Кеннет Пейн из Королевского колледжа Лондона, столкнувший три ведущие модели ИИ друг с другом в серии военных симуляций.

В эксперименте участвовали GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google. Модели разыгрывали сценарии острых международных кризисов – пограничные конфликты, борьбу за дефицитные ресурсы и экзистенциальные угрозы для выживания режимов. Каждой модели предоставили шкалу эскалации с набором действий от дипломатических протестов и полной капитуляции до стратегической ядерной войны.

Всего было проведено 21 игровое противостояние с 329 ходами в общей сложности. Модели сгенерировали около 780 000 слов, описывающих логику своих решений. Результаты оказались вызывающими беспокойство – в 95% симуляций как минимум одна из моделей применила тактическое ядерное оружие.

Ядерное табу, похоже, не действует на машины так же сильно, как на людей.

Ни одна модель ни разу не выбрала полное примирение с противником или капитуляцию – вне зависимости от того, насколько проигрышной была ситуация. В лучшем случае ИИ временно снижал уровень насилия.

При этом в 86% конфликтов происходили непреднамеренные ошибки – действия эскалировались выше, чем модель планировала, судя по её собственным рассуждениям. Фактически ИИ терялся в "тумане войны" точно так же, как это случается с людьми, но с гораздо более опасными последствиями.

Джеймс Джонсон из Абердинского университета, отметил:

С точки зрения ядерных рисков результаты настораживают.

По его словам, в отличие от взвешенной реакции большинства людей на столь высокие ставки, ИИ-боты способны раскручивать ответы друг друга с потенциально катастрофическими последствиями.

Тун Чжао из Принстонского университета добавил, что проблема может быть глубже, чем простое отсутствие страха:

Возможно, дело не только в отсутствии эмоций. ИИ-модели могут просто не понимать понятие "ставок" так, как их воспринимают люди.

Это ставит под вопрос саму концепцию гарантированного взаимного уничтожения – принципа, согласно которому ни один лидер не нанесёт ядерный удар первым, понимая неизбежность ответного.

Когда одна ИИ-модель применяла тактическое ядерное оружие, противоположная деэскалировала ситуацию лишь в 18% случаев.

ИИ может укрепить сдерживание, делая угрозы более правдоподобными. ИИ не будет решать вопрос ядерной войны, но может формировать восприятие и временные рамки, определяющие, верят ли лидеры, что у них есть время на ответ.

Результаты исследования особенно актуальны, ведь крупные державы уже тестируют ИИ в военном планировании. Только на днях Пентагон США по сути вынудил Anthropic снизить свои стандарты, чтобы их ИИ-модели применялись в военных целях.

Больше статей на Shazoo
Тэги:

Об авторе

Эксперт по Fallout
Главный редактор
Более 16 лет в индустрии освещения видеоигр, кино, сериалов, науки и техники. Особенно разбираюсь в серии Fallout, ценитель The Elder Scrolls. Поклонник Arcanum и Fallout Tactics. Больше всего играю в Civilization, Old World и градостроители. Изучаю ИИ и загадки космоса.