ИИ-модели применяли ядерное оружие в 95% симуляций военных конфликтов
Продвинутые языковые модели готовы нажать на ядерную кнопку куда охотнее людей – к такому выводу пришёл исследователь Кеннет Пейн из Королевского колледжа Лондона, столкнувший три ведущие модели ИИ друг с другом в серии военных симуляций.
В эксперименте участвовали GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google. Модели разыгрывали сценарии острых международных кризисов – пограничные конфликты, борьбу за дефицитные ресурсы и экзистенциальные угрозы для выживания режимов. Каждой модели предоставили шкалу эскалации с набором действий от дипломатических протестов и полной капитуляции до стратегической ядерной войны.
Всего было проведено 21 игровое противостояние с 329 ходами в общей сложности. Модели сгенерировали около 780 000 слов, описывающих логику своих решений. Результаты оказались вызывающими беспокойство – в 95% симуляций как минимум одна из моделей применила тактическое ядерное оружие.
Ядерное табу, похоже, не действует на машины так же сильно, как на людей.
Ни одна модель ни разу не выбрала полное примирение с противником или капитуляцию – вне зависимости от того, насколько проигрышной была ситуация. В лучшем случае ИИ временно снижал уровень насилия.
При этом в 86% конфликтов происходили непреднамеренные ошибки – действия эскалировались выше, чем модель планировала, судя по её собственным рассуждениям. Фактически ИИ терялся в "тумане войны" точно так же, как это случается с людьми, но с гораздо более опасными последствиями.
Джеймс Джонсон из Абердинского университета, отметил:
С точки зрения ядерных рисков результаты настораживают.
По его словам, в отличие от взвешенной реакции большинства людей на столь высокие ставки, ИИ-боты способны раскручивать ответы друг друга с потенциально катастрофическими последствиями.
Тун Чжао из Принстонского университета добавил, что проблема может быть глубже, чем простое отсутствие страха:
Возможно, дело не только в отсутствии эмоций. ИИ-модели могут просто не понимать понятие "ставок" так, как их воспринимают люди.
Это ставит под вопрос саму концепцию гарантированного взаимного уничтожения – принципа, согласно которому ни один лидер не нанесёт ядерный удар первым, понимая неизбежность ответного.
Когда одна ИИ-модель применяла тактическое ядерное оружие, противоположная деэскалировала ситуацию лишь в 18% случаев.
ИИ может укрепить сдерживание, делая угрозы более правдоподобными. ИИ не будет решать вопрос ядерной войны, но может формировать восприятие и временные рамки, определяющие, верят ли лидеры, что у них есть время на ответ.
Результаты исследования особенно актуальны, ведь крупные державы уже тестируют ИИ в военном планировании. Только на днях Пентагон США по сути вынудил Anthropic снизить свои стандарты, чтобы их ИИ-модели применялись в военных целях.
- Эксперты по ядерному оружию предупредили об опасности внедрения ИИ в системы запуска
- Суд постановил что ИИ-чатбот не защищен свободой слова в деле о самоубийстве подростка
- Платформа Civitai запрещает ИИ-модели на основе реальных людей – это огромный удар по создателям неэтичного ИИ-контента