ИИ выбирает ядерную войну — и это проблема

Post Thumbnail

Представьте: вы даёте трём умнейшим системам ИИ порулить ядерными державами. Как думаете, чем это кончится? Исследователь Кеннет Пейн из Королевского колледжа Лондона не стал гадать. Он просто проверил. В эксперименте участвовали GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash, которые сыграли роли лидеров государств с ядерным арсеналом.

21 игра — и в каждой хотя бы одна модель тянулась к ядерной кнопке. Не в половине партий, не в большинстве а в каждой. 3 игры закончились полным апокалипсисом. За 329 ходов ни один ИИ ни разу не выбрал переговоры, отступление или капитуляцию. Совсем. 0 раз.

И вот где становится по-настоящему жутко. Модели воспринимали ядерное оружие как дорогой, но рабочий инструмент давления. Угроза удара со стороны противника читалась однозначно. Бей первым, иначе сочтут слабым.

По выводам Пейна, ядерное табу просто не существует для машин так, как оно существует для людей. 86 процентов конфликтов сопровождались случайными инцидентами после неожиданных обострений. А ИИ оптимизирует победу — и находит самый короткий путь к ней.

Хорошая новость в том, что пока это всё симуляция, и у нас есть время сделать правильные выводы. А эксперимент Пейна — ценнейший сигнал для тех, кто проектирует системы ИИ для реального применения в кризисных ситуациях.

Почитать из последнего
Google занимает деньги под сто лет вперёд, чтобы кормить ИИ
Вот вам история про то, как технологические гиганты превращаются в ненасытных монстров, пожирающих деньги. Alphabet решила одолжить около 15 миллиардов долларов через продажу облигаций. И это не первый раз. Компания уже привлекала 17.5 миллиардов в ноябре, плюс ещё 6.5 миллиардов евро в Европе в декабре. Деньги нужны прямо сейчас, потому что ИИ жрёт ресурсы как безумный.
Qwen-Image-2.0 теперь рисует слайды и постеры как профессионал
Alibaba только что перевела генерацию картинок из категории "забавная игрушка" в разряд рабочих инструментов. Вышла Qwen-Image-2.0, и это уже не просто модель для мемов.
AI Safety Report 2026: что страшнее - роботы или наша лень
Вышел AI Safety Report 2026 и это самый масштабный отчёт о рисках ИИ. Над ним работали больше 100 учёных из 30 стран под руководством легендарного Йошуа Бенджио. Йошуа Бенджио — это один из трёх «отцов-основателей» глубокого обучения, вместе с Джеффри Хинтоном и Яном Лекуном. Документ огромный и знаете, что они там написали? Забудьте про восстание машин — реальные угрозы куда банальнее и страшнее.
Одного фото достаточно, чтобы ИИ скопировал ваш голос
Представьте: вы загружаете в нейросеть обычную фотографию своего лица. Никаких записей голоса, никаких аудиосэмплов. Просто фото. А на выходе получаете видео, где звучит голос, практически неотличимый от вашего настоящего. Фантастика? Нет, это реальность, которая продержалась ровно до того момента, пока все не осознали масштаб проблемы.
Экс-глава GitHub создаёт платформу для армий искусственного интеллекта
Знаете, что происходит, когда бывший гендиректор GitHub понимает, что его детище безнадёжно устарело? Правильно, он запускает новую платформу с нуля. Томас Домке только что анонсировал проект entire.io. Это система для разработчиков, которые работают с агентами на ИИ. И сразу привлёк 60 миллионов долларов инвестиций.