ИИ выбирает ядерную войну — и это проблема
Представьте: вы даёте трём умнейшим системам ИИ порулить ядерными державами. Как думаете, чем это кончится? Исследователь Кеннет Пейн из Королевского колледжа Лондона не стал гадать. Он просто проверил. В эксперименте участвовали GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash, которые сыграли роли лидеров государств с ядерным арсеналом.
21 игра — и в каждой хотя бы одна модель тянулась к ядерной кнопке. Не в половине партий, не в большинстве а в каждой. 3 игры закончились полным апокалипсисом. За 329 ходов ни один ИИ ни разу не выбрал переговоры, отступление или капитуляцию. Совсем. 0 раз.
И вот где становится по-настоящему жутко. Модели воспринимали ядерное оружие как дорогой, но рабочий инструмент давления. Угроза удара со стороны противника читалась однозначно. Бей первым, иначе сочтут слабым.
По выводам Пейна, ядерное табу просто не существует для машин так, как оно существует для людей. 86 процентов конфликтов сопровождались случайными инцидентами после неожиданных обострений. А ИИ оптимизирует победу — и находит самый короткий путь к ней.
Хорошая новость в том, что пока это всё симуляция, и у нас есть время сделать правильные выводы. А эксперимент Пейна — ценнейший сигнал для тех, кто проектирует системы ИИ для реального применения в кризисных ситуациях.