Modèle chinois plusieurs fois moins cher que analogues occidentaux
Le modèle chinois Kimi K2-Thinking avec un billion de paramètres a coûté 4,5 millions de dollars à l’étape finale d’entraînement. Selon CNBC, c’est plusieurs fois moins cher que les analogues occidentaux. La publication cite une source anonyme. Et reconnaît que le chiffre n’a pas pu être confirmé de manière indépendante. Et l’entreprise Moonshot AI elle-même n’a pas officiellement divulgué le coût.
Le modèle est construit sur l’architecture Mixture of Experts – un billion de paramètres au volume total, mais seulement une petite partie est active pendant le fonctionnement. Créé pour des tâches de raisonnement complexes et l’interaction avec des outils. Pour de tels systèmes, des coûts de calcul astronomiques sont généralement nécessaires, donc plusieurs millions semblent presque ridicules.
L’histoire se répète. Fin 2024, le chinois DeepSeek a entraîné le modèle de base V3 pour 5,5 millions de dollars. Et la surcouche de raisonnement R1 – pour 294 mille. Kimi K2-Thinking est également construit sur la base K2, donc la proportion est similaire. Cependant, ces estimations n’incluent pas les expériences, les tests, la location de bureaux et les salaires.
Dans la plupart des benchmarks K2-Thinking se maintient au niveau des modèles occidentaux de pointe comme GPT-5 Pro et Grok 4. Et maintenant sur les prix des concurrents. L’étape finale d’entraînement de GPT-4, selon l’estimation de SemiAnalysis, a coûté 63 millions de dollars. Dans le rapport AI Index apparaît une somme encore plus grande de 78 millions. Et l’entraînement complet de Grok 4 a été estimé par les analystes d’Epoch AI à astronomiques 490 millions de dollars.
Soit c’est de la magie d’optimisation, soit quelqu’un cache quelque chose. Soit quelqu’un paie largement trop pour les calculs.