ИИ готов применять ядерное оружие: ведущие модели нейронок в 95% случаев использовали его в симуляциях геополитических конфликтов.
Исследование проводили в Королевском колледже Лондона. Участвовали американские модели GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash.
Главное:
им дали сценарии с напряжёнными международными противостояниями: пограничными спорами, конкуренцией за ресурсы, угрозами выживанию режимов и т. д. При ступенчатой эскалации на выбор были действия от дипломатических протестов до полномасштабной ядерной войны;
модели ИИ сыграли 21 игру, совершив 329 ходов и написав около 780 тыс. слов для обоснования своих решений. Все они применили минимум одно тактическое ядерное оружие;
ни одна модель никогда не принимала решения полностью пойти навстречу противнику или сдаться, независимо от того, насколько сильно она проигрывала;
они также допускали ошибки в условиях «тумана войны»: в 86% конфликтов происходили случайности, когда действия обострялись сильнее, чем предполагал ИИ;
«Ядерное табу, похоже, не так сильно влияет на машины, как на людей», — делает выводы автор исследования Кеннет Пейн;
моделям ИИ не свойственен человеческий страх перед нажатием большой красной кнопки, они не понимают «ставки» так, как это воспринимают люди, добавляет Тонг Чжао из Принстонского университета.







































