OpenAI выпустила GPT-5.1-Codex-Max и обошла Gemini 3 Pro через день

Post Thumbnail

OpenAI представила GPT-5.1-Codex-Max. Это версия GPT-5.1 Thinking, специально заточенная под задачи программирования внутри кодинг-агента Codex. Это 1 модель компании, нативно обученная работать через множество контекстных окон с помощью процесса, который называется компакция. Модель способна связно работать с миллионами токенов в рамках 1 задачи.

Это открывает возможности для рефакторинга целых проектов, глубоких сессий отладки и многочасовых циклов работы агента. Модель обучена на реальных задачах разработки программного обеспечения. Таких как создание пулл-реквестов, ревью кода и фронтенд-разработка.

В SWE-Bench Verified, который считается 1 из главных бенчмарков по программированию, модель обходит Gemini 3 Pro и Claude Sonnet 4.5.

Но самое интересное — в эффективности. GPT-5.1-Codex-Max с режимом рассуждений medium достигает лучшей производительности, чем GPT-5.1-Codex с тем же режимом. Но использует на 30% меньше токенов мышления. А для задач, не требующих низкой задержки, компания вводит новый режим Extra High, который думает ещё дольше ради лучшего ответа.

OpenAI также заявила, что GPT-5.1-Codex-Max способна создавать высококачественные фронтенд-дизайны с аналогичной функциональностью и эстетикой, но при гораздо меньших затратах, чем GPT-5.1-Codex.

Ну что, это мощный контрудар от OpenAI. Илон Маск выпустил свой новый Грок и стал первым в разработке. На следующий день Google выпустил Gemini 3 Pro и стал королём программирования. И вот теперь GPT-5.1-Codex-Max обошёл обоих через день. Гонка продолжается.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.