
DeepSeek R1 a dépassé Qwen 3 et réduit l’écart avec Gemini 2.5 Pro
Les données sur DeepSeek R1, qui a reçu une mise à jour sérieuse, sont arrivées. Et les résultats sont impressionnants. Le modèle dépasse maintenant avec confiance son concurrent Qwen 3 avec 235 milliards de paramètres. Bien qu’il soit encore en retard sur des fleurons comme Gemini 2.5 Pro et O3, l’écart s’est significativement réduit. L’amélioration principale est liée à l’augmentation de la profondeur de raisonnement – maintenant le modèle utilise en moyenne 23 000 tokens pour résoudre des tâches, tandis que la version précédente était limitée à 12 000. Cette capacité d’analyse plus profonde a apporté des résultats impressionnants. Par exemple, dans le test AIME, la précision a augmenté de 70% à 87,5%. Outre les succès impressionnants dans les benchmarks, la nouvelle version a commencé à beaucoup moins halluciner et a significativement amélioré ses capacités dans le développement frontend. Bien qu’elle doive encore grandir au niveau de Claude dans cette sphère.
Je pense que dans l’année qui vient nous verrons une nouvelle vague d’intégration de grands modèles de langage dans les systèmes de distillation de connaissances. Où les modèles géants agiront comme « enseignants » pour les versions compactes. Cela mènera à une percée rapide dans l’efficacité des petits modèles et leur implémentation dans les appareils mobiles.