OpenAI veröffentlichte GPT-5.1-Codex-Max und überholte Gemini 3 Pro nach einem Tag
OpenAI präsentierte GPT-5.1-Codex-Max. Dies ist eine Version von GPT-5.1 Thinking, speziell für Programmieraufgaben innerhalb des Coding-Agenten Codex zugeschnitten. Dies ist das erste Modell des Unternehmens, das nativ trainiert wurde, über mehrere Kontextfenster mit einem Prozess namens Kompaktierung zu arbeiten. Das Modell ist in der Lage, kohärent mit Millionen von Token im Rahmen einer Aufgabe zu arbeiten.
Dies eröffnet Möglichkeiten für Refactoring ganzer Projekte, tiefgehende Debugging-Sitzungen und mehrstündige Agenten-Arbeitszyklen. Das Modell wurde auf realen Softwareentwicklungsaufgaben trainiert. Wie Erstellen von Pull-Requests, Code-Reviews und Frontend-Entwicklung.
In SWE-Bench Verified, der als einer der Haupt-Benchmarks für Programmierung gilt, überholt das Modell Gemini 3 Pro und Claude Sonnet 4.5.
Aber das Interessanteste liegt in der Effizienz. GPT-5.1-Codex-Max mit Reasoning-Modus Medium erreicht bessere Leistung als GPT-5.1-Codex mit demselben Modus. Verwendet aber 30% weniger Thinking-Token. Und für Aufgaben, die keine niedrige Latenz erfordern, führt das Unternehmen einen neuen Extra High-Modus ein, der noch länger denkt für eine bessere Antwort.
OpenAI erklärte auch, dass GPT-5.1-Codex-Max hochwertige Frontend-Designs mit ähnlicher Funktionalität und Ästhetik erstellen kann, aber zu viel geringeren Kosten als GPT-5.1-Codex.
Nun, das ist ein mächtiger Gegenschlag von OpenAI. Elon Musk veröffentlichte seinen neuen Grok und wurde Erster in der Entwicklung. Am nächsten Tag veröffentlichte Google Gemini 3 Pro und wurde König der Programmierung. Und jetzt hat GPT-5.1-Codex-Max beide nach einem Tag überholt. Das Rennen geht weiter.