Modelo chino varias veces más barato que análogos occidentales
Modelo chino Kimi K2-Thinking con billón de parámetros costó 4.5 millones de dólares en etapa final de entrenamiento. Según CNBC, esto es varias veces más barato que análogos occidentales. Publicación cita fuente anónima. Y reconoce que cifra no pudo ser confirmada independientemente. Y compañía Moonshot AI misma no ha revelado oficialmente costo.
Modelo está construido sobre arquitectura Mixture of Experts – billón de parámetros en volumen total, pero solo pequeña parte está activa durante operación. Creado para tareas complejas de razonamiento e interacción con herramientas. Para tales sistemas normalmente se requieren costos computacionales astronómicos, por lo que varios millones parecen casi ridículos.
Historia se repite. A finales de 2024, chino DeepSeek entrenó modelo base V3 por 5.5 millones de dólares. Y superposición de razonamiento R1 – por 294 mil. Kimi K2-Thinking también está construido sobre base K2, así que proporción es similar. Sin embargo, estas estimaciones no incluyen experimentos, pruebas, alquiler de oficinas y salarios.
En mayoría de benchmarks K2-Thinking se mantiene a nivel de modelos occidentales líderes como GPT-5 Pro y Grok 4. Y ahora sobre precios de competidores. Etapa final de entrenamiento de GPT-4, según estimación de SemiAnalysis, costó 63 millones de dólares. En informe AI Index aparece suma aún mayor de 78 millones. Y entrenamiento completo de Grok 4 fue estimado por analistas de Epoch AI en astronómicos 490 millones de dólares.
O esto es alguna magia de optimización, o alguien está ocultando algo. O alguien está pagando enormemente de más por cálculos.