Post Thumbnail

OpenAI a publié GPT-5.1-Codex-Max et a dépassé Gemini 3 Pro en un jour

OpenAI a présenté GPT-5.1-Codex-Max. C’est une version de GPT-5.1 Thinking, spécialement adaptée pour les tâches de programmation au sein de l’agent de codage Codex. C’est le premier modèle de l’entreprise nativement entraîné à travailler à travers plusieurs fenêtres de contexte en utilisant un processus appelé compaction. Le modèle est capable de travailler de manière cohérente avec des millions de tokens dans le cadre d’une tâche.

Cela ouvre des possibilités pour le refactoring de projets entiers, des sessions de débogage profondes et des cycles de travail d’agent de plusieurs heures. Le modèle a été entraîné sur des tâches réelles de développement logiciel. Comme la création de pull requests, les revues de code et le développement frontend.

Dans SWE-Bench Verified, qui est considéré comme l’un des principaux benchmarks de programmation, le modèle dépasse Gemini 3 Pro et Claude Sonnet 4.5.

Mais le plus intéressant réside dans l’efficacité. GPT-5.1-Codex-Max avec mode de raisonnement medium atteint de meilleures performances que GPT-5.1-Codex avec le même mode. Mais utilise 30% de tokens de réflexion en moins. Et pour les tâches ne nécessitant pas de faible latence, l’entreprise introduit un nouveau mode Extra High qui pense encore plus longtemps pour une meilleure réponse.

OpenAI a également déclaré que GPT-5.1-Codex-Max peut créer des designs frontend de haute qualité avec une fonctionnalité et une esthétique similaires, mais à des coûts bien inférieurs à GPT-5.1-Codex.

Eh bien, c’est une contre-attaque puissante d’OpenAI. Elon Musk a publié son nouveau Grok et est devenu premier en développement. Le lendemain Google a publié Gemini 3 Pro et est devenu roi de la programmation. Et maintenant GPT-5.1-Codex-Max a dépassé les deux en un jour. La course continue.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.
Latest News
Les gens commencent massivement romances avec IA, jusqu'à mariages virtuels

Les gens ont commencé massivement à entamer des romances avec l'IA. Et ce n'est pas juste échanger pour le divertissement. Cela va jusqu'à des mariages virtuels, des grossesses et l'éducation d'enfants inexistants. Des scientifiques d'Allemagne et des États-Unis ont mené une étude et découvert ce que beaucoup ne voulaient pas remarquer.

Chef de Hugging Face a prédit effondrement de bulle de grands modèles de langage

Clem Delangue de Hugging Face a tracé une ligne rouge dans la discussion sur la bulle technologique. Et cette ligne ne passe pas là où tout le monde s'attend. Le chef de l'une des plus grandes plateformes d'IA a déclaré qu'il y a une bulle, mais ce n'est pas une bulle d'IA. C'est une bulle de grands modèles de langage. Et elle pourrait s'effondrer dès l'année prochaine.

OpenAI a publié GPT-5.1-Codex-Max et a dépassé Gemini 3 Pro en un jour

OpenAI a présenté GPT-5.1-Codex-Max. C'est une version de GPT-5.1 Thinking, spécialement adaptée pour les tâches de programmation au sein de l'agent de codage Codex. C'est le premier modèle de l'entreprise nativement entraîné à travailler à travers plusieurs fenêtres de contexte en utilisant un processus appelé compaction. Le modèle est capable de travailler de manière cohérente avec des millions de tokens dans le cadre d'une tâche.

Cinq fondateurs IT ont gagné plus de 200 milliards de dollars avec boom IA

Cinq fondateurs d'entreprises IT peuvent se vanter d'une richesse de plus de 200 milliards de dollars chacun dans le contexte du boom de l'IA. Récemment encore, comme le note The Economic Times, posséder 100 milliards de dollars permettait l'accès au club de l'élite mondiale, mais maintenant la barre a doublé.

Scientifiques japonais ont créé système de lecture de mémoires via IRM

Un groupe de scientifiques japonais du laboratoire NTT a montré un système qui génère des descriptions textuelles de ce qu'une personne se souvient, imagine ou voit sur la base de données d'IRM fonctionnelle. Essentiellement, c'est la lecture de mémoires. Et encore un grand pas vers la lecture de pensées.