Chinesisches Modell um Größenordnungen günstiger als westliche Analoga
Das chinesische Modell Kimi K2-Thinking mit einer Billion Parametern kostete 4,5 Millionen Dollar in der finalen Trainingsphase. Laut CNBC ist das um Größenordnungen günstiger als westliche Analoga. Die Publikation beruft sich auf eine anonyme Quelle. Und gibt zu, dass die Zahl nicht unabhängig bestätigt werden konnte. Und das Unternehmen Moonshot AI selbst hat die Kosten offiziell nicht offengelegt.
Das Modell ist nach der Mixture of Experts-Architektur aufgebaut – eine Billion Parameter im Gesamtvolumen, aber nur ein kleiner Teil ist während der Arbeit aktiv. Erstellt für komplexe Reasoning-Aufgaben und Interaktion mit Tools. Für solche Systeme sind normalerweise astronomische Rechenkosten erforderlich, daher sehen mehrere Millionen fast lächerlich aus.
Die Geschichte wiederholt sich. Ende 2024 trainierte das chinesische DeepSeek das Basismodell V3 für 5,5 Millionen Dollar. Und den Reasoning-Aufsatz R1 – für 294 Tausend. Kimi K2-Thinking ist ebenfalls auf Basis-K2 aufgebaut, also ist die Proportion ähnlich. Allerdings beinhalten diese Schätzungen keine Experimente, Tests, Büromiete und Gehälter.
In den meisten Benchmarks hält sich K2-Thinking auf dem Niveau führender westlicher Modelle wie GPT-5 Pro und Grok 4. Und jetzt über die Preise der Konkurrenten. Die finale Trainingsphase von GPT-4 kostete laut SemiAnalysis-Schätzung 63 Millionen Dollar. Im AI Index-Bericht erscheint eine noch größere Summe von 78 Millionen. Und das vollständige Training von Grok 4 schätzten Epoch AI-Analysten auf astronomische 490 Millionen Dollar.
Entweder ist dies irgendeine Magie der Optimierung, oder jemand verschweigt etwas. Oder jemand zahlt stark zu viel für Berechnungen.