Post Thumbnail

OpenAI veröffentlichte GPT-5.1-Codex-Max und überholte Gemini 3 Pro nach einem Tag

OpenAI präsentierte GPT-5.1-Codex-Max. Dies ist eine Version von GPT-5.1 Thinking, speziell für Programmieraufgaben innerhalb des Coding-Agenten Codex zugeschnitten. Dies ist das erste Modell des Unternehmens, das nativ trainiert wurde, über mehrere Kontextfenster mit einem Prozess namens Kompaktierung zu arbeiten. Das Modell ist in der Lage, kohärent mit Millionen von Token im Rahmen einer Aufgabe zu arbeiten.

Dies eröffnet Möglichkeiten für Refactoring ganzer Projekte, tiefgehende Debugging-Sitzungen und mehrstündige Agenten-Arbeitszyklen. Das Modell wurde auf realen Softwareentwicklungsaufgaben trainiert. Wie Erstellen von Pull-Requests, Code-Reviews und Frontend-Entwicklung.

In SWE-Bench Verified, der als einer der Haupt-Benchmarks für Programmierung gilt, überholt das Modell Gemini 3 Pro und Claude Sonnet 4.5.

Aber das Interessanteste liegt in der Effizienz. GPT-5.1-Codex-Max mit Reasoning-Modus Medium erreicht bessere Leistung als GPT-5.1-Codex mit demselben Modus. Verwendet aber 30% weniger Thinking-Token. Und für Aufgaben, die keine niedrige Latenz erfordern, führt das Unternehmen einen neuen Extra High-Modus ein, der noch länger denkt für eine bessere Antwort.

OpenAI erklärte auch, dass GPT-5.1-Codex-Max hochwertige Frontend-Designs mit ähnlicher Funktionalität und Ästhetik erstellen kann, aber zu viel geringeren Kosten als GPT-5.1-Codex.

Nun, das ist ein mächtiger Gegenschlag von OpenAI. Elon Musk veröffentlichte seinen neuen Grok und wurde Erster in der Entwicklung. Am nächsten Tag veröffentlichte Google Gemini 3 Pro und wurde König der Programmierung. Und jetzt hat GPT-5.1-Codex-Max beide nach einem Tag überholt. Das Rennen geht weiter.

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
Menschen gehen massenhaft Romanzen mit KI ein, es kommt zu virtuellen Ehen

Menschen begannen massenhaft Romanzen mit KI einzugehen. Und das ist nicht nur Schreiben zum Vergnügen. Es kommt zu virtuellen Ehen, Schwangerschaften und Erziehung nicht existierender Kinder. Wissenschaftler aus Deutschland und den USA führten eine Studie durch und entdeckten das, was viele nicht bemerken wollten.

Hugging Face-Chef prognostizierte Platzen der Blase großer Sprachmodelle

Clem Delangue von Hugging Face zog eine rote Linie in der Diskussion über die Technologieblase. Und diese Linie verläuft nicht dort, wo alle erwarten. Der Chef einer der größten KI-Plattformen erklärte, dass es eine Blase gibt, aber es ist keine KI-Blase. Es ist eine Blase großer Sprachmodelle. Und sie könnte bereits im nächsten Jahr platzen.

OpenAI veröffentlichte GPT-5.1-Codex-Max und überholte Gemini 3 Pro nach einem Tag

OpenAI präsentierte GPT-5.1-Codex-Max. Dies ist eine Version von GPT-5.1 Thinking, speziell für Programmieraufgaben innerhalb des Coding-Agenten Codex zugeschnitten. Dies ist das erste Modell des Unternehmens, das nativ trainiert wurde, über mehrere Kontextfenster mit einem Prozess namens Kompaktierung zu arbeiten. Das Modell ist in der Lage, kohärent mit Millionen von Token im Rahmen einer Aufgabe zu arbeiten.

Fünf IT-Gründer verdienten mehr als 200 Milliarden Dollar mit KI-Boom

Fünf Gründer von IT-Unternehmen können sich vor dem Hintergrund des KI-Booms eines Vermögens von jeweils mehr als 200 Milliarden Dollar rühmen. Erst kürzlich, wie The Economic Times anmerkt, ermöglichte der Besitz von 100 Milliarden Dollar den Zugang zum Club der Weltelite, aber jetzt hat sich die Messlatte verdoppelt.

Japanische Wissenschaftler schufen System zum Lesen von Erinnerungen mittels MRT

Eine Gruppe japanischer Wissenschaftler aus dem NTT-Labor zeigte ein System, das auf Basis funktioneller MRT-Daten Textbeschreibungen dessen generiert, was eine Person sich erinnert, vorstellt oder sieht. Im Wesentlichen ist dies das Lesen von Erinnerungen. Und noch ein großer Schritt zum Lesen von Gedanken.