Google a publié Gemini 3 avec fenêtre de contexte de 1 million de tokens
Google a publié Gemini 3. Et le changement principal réside dans la façon dont le modèle traite les requêtes. Gemini 3 analyse le contexte et les intentions sans longs prompts.
La fenêtre de contexte a été étendue à 1 million de tokens. Des heures de conférences vidéo ou des dizaines de travaux scientifiques y tiennent. Vous voulez comprendre la physique de la fusion nucléaire ? Elle écrira du code pour une visualisation détaillée des flux de plasma dans un tokamak. Besoin de préserver des recettes familiales ? Elle transcrira des notes manuscrites dans n’importe quelle langue et compilera un livre de cuisine complet.
Le modèle démontre des connaissances de niveau PhD en sciences naturelles et mathématiques, meilleurs résultats en codage et tâches d’agents autonomes. Il est vraiment multimodal. Comprend excellemment non seulement le texte mais aussi les images ou vidéos.
Pour les tâches particulièrement complexes il y a le mode Deep Think. Sur ARC-AGI-2 le modèle a atteint 45%, ce qui indique la capacité de résoudre des tâches inconnues.
Dans Search, le mode AI est apparu basé sur Gemini 3. Pour les requêtes le moteur de recherche génère des visualisations interactives et des simulations au lieu de réponses textuelles ordinaires.
Gemini 3 Pro a déplacé Grok 4.1 de xAI Elon Musk du piédestal. Ce dernier n’a pas tenu le leadership même un jour. Croissance particulièrement forte dans les benchmarks pour la pensée abstraite et la résolution de tâches complexes et “Dernier examen de l’humanité”.
Fait intéressant, les développeurs notent que le modèle ne flatte pas et n’essaie pas de plaire à l’utilisateur. Il s’avère que Google n’a pas seulement amélioré les caractéristiques techniques mais a également changé la philosophie même de l’interaction. Le modèle dit ce qu’il considère juste. Et non ce que la personne veut entendre.
Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.
Latest News
Les gens commencent massivement romances avec IA, jusqu'à mariages virtuelsLes gens ont commencé massivement à entamer des romances avec l'IA. Et ce n'est pas juste échanger pour le divertissement. Cela va jusqu'à des mariages virtuels, des grossesses et l'éducation d'enfants inexistants. Des scientifiques d'Allemagne et des États-Unis ont mené une étude et découvert ce que beaucoup ne voulaient pas remarquer.
Chef de Hugging Face a prédit effondrement de bulle de grands modèles de langageClem Delangue de Hugging Face a tracé une ligne rouge dans la discussion sur la bulle technologique. Et cette ligne ne passe pas là où tout le monde s'attend. Le chef de l'une des plus grandes plateformes d'IA a déclaré qu'il y a une bulle, mais ce n'est pas une bulle d'IA. C'est une bulle de grands modèles de langage. Et elle pourrait s'effondrer dès l'année prochaine.
OpenAI a publié GPT-5.1-Codex-Max et a dépassé Gemini 3 Pro en un jourOpenAI a présenté GPT-5.1-Codex-Max. C'est une version de GPT-5.1 Thinking, spécialement adaptée pour les tâches de programmation au sein de l'agent de codage Codex. C'est le premier modèle de l'entreprise nativement entraîné à travailler à travers plusieurs fenêtres de contexte en utilisant un processus appelé compaction. Le modèle est capable de travailler de manière cohérente avec des millions de tokens dans le cadre d'une tâche.
Cinq fondateurs IT ont gagné plus de 200 milliards de dollars avec boom IACinq fondateurs d'entreprises IT peuvent se vanter d'une richesse de plus de 200 milliards de dollars chacun dans le contexte du boom de l'IA. Récemment encore, comme le note The Economic Times, posséder 100 milliards de dollars permettait l'accès au club de l'élite mondiale, mais maintenant la barre a doublé.
Scientifiques japonais ont créé système de lecture de mémoires via IRMUn groupe de scientifiques japonais du laboratoire NTT a montré un système qui génère des descriptions textuelles de ce qu'une personne se souvient, imagine ou voit sur la base de données d'IRM fonctionnelle. Essentiellement, c'est la lecture de mémoires. Et encore un grand pas vers la lecture de pensées.