
Kimi-K2 avec 1 billion de paramètres a dépassé GPT-4.1 en programmation
L’entreprise technologique chinoise Moonshot AI a présenté un nouveau joueur dans l’arène de l’IA ! Rencontrez Kimi-K2. C’est un grand modèle de langage avec du code source ouvert, prêt à défier les leaders industriels reconnus comme Claude Sonnet 4 et GPT-4.1. Et un tel démarrage bruyant et puissant rappelle l’apparition de Deepseek.
Les spécifications techniques de ce modèle sont impressionnantes. Kimi-K2 combine un volume colossal de connaissances et a 1 billion de paramètres. L’avantage le plus important sont les coefficients de poids ouverts. Rendant le modèle accessible pour la recherche, l’ajustement supplémentaire et l’adaptation à des tâches spécifiques.
La version Kimi-K2-Instruct, optimisée pour les conditions d’application réelles, démontre des résultats exceptionnels dans les tests standards. Sur le test le plus difficile SWE-bench Verified, elle a atteint 65,8% en mode agent. Cet indicateur n’est que légèrement inférieur à Claude Sonnet 4, mais dépasse considérablement GPT-4.1.
Particulièrement impressionnant est que Kimi-K2 mène dans les tests de programmation spécialisés. LiveCodeBench avec 53,7% et OJBench avec 27,1%. Le modèle génère n’importe quels jeux, applications et planifie des voyages à travers des dizaines d’outils dans le navigateur comme agent.
Le modèle gère aussi brillamment les tâches en mathématiques et sciences naturelles. Dépassant les concurrents dans des tests si difficiles comme AIME, GPQA-Diamond et MATH-500. Et déjà maintenant il fait partie du groupe d’élite des meilleurs modèles aussi dans les tests multilingues. Et il semble que c’est le nouveau roi des réseaux neuronaux maintenant.