DeepSeek a publié 2 modèles avec une percée dans les systèmes agentiques et l’IA
La startup chinoise DeepSeek a publié 2 modèles qui prétendent être une percée dans les systèmes agentiques. Et à en juger par les métriques, ce n’est pas juste du marketing.
DeepSeek-V3.2 — c’est le successeur officiel de la version expérimentale. Disponible dans l’application, sur le site et via API. DeepSeek-V3.2-Speciale — une version améliorée avec accent sur le raisonnement multi-étapes avancé. Ne fonctionne pour l’instant que via API.
Les deux modèles mettent l’accent sur des chaînes de raisonnement profondes et le comportement pour des scénarios agentiques. C’est la planification, la résolution de problèmes, les déductions complexes et le travail avec des données structurées.
DeepSeek-V3.2-Speciale est devenu le premier modèle open-source qui décroche l’or dans les olympiades de haut niveau. L’or dans 4 olympiades prestigieuses ! Selon les métriques, Speciale dépasse Gemini 3.0 Pro en mathématiques, et le moins puissant DeepSeek-V3.2 devance Claude-4.5 Sonnet en codage.
Mais il y a une nuance. Le test-time compute est énorme. Speciale n’économise pas du tout les tokens, de sorte que l’inférence devient coûteuse. Les auteurs eux-mêmes admettent avoir “laissé l’optimisation pour des recherches futures”.
Raisons techniques du succès : c’est la nouvelle architecture DeepSeek Sparse Attention, un entraînement RL stable à grande échelle et un grand pipeline pour les tâches agentiques. Et c’est le changement d’architecture clé par rapport à la génération précédente.
Les deux modèles sont extrêmement bons dans toutes sortes de tâches agentiques, et particulièrement dans la recherche et les tâches avec navigateur. Pour cela, 1800 environnements synthétiques ont été générés dans lesquels les agents ont été entraînés à effectuer des tâches complètement différentes.
Un très bon modèle est sorti, respect.