Китайская модель в разы дешевле западных аналогов

Post Thumbnail

Китайская модель Kimi K2-Thinking с триллионом параметров обошлась в 4,5 млн долларов на финальном этапе обучения. По данным CNBC, это в разы дешевле западных аналогов. Издание ссылается на анонимный источник. И признаёт, что независимо подтвердить цифру не удалось. А сама компания Moonshot AI официально стоимость не раскрывала.

Модель построена по архитектуре Mixture of Experts — триллион параметров в общем объёме, но активна во время работы лишь малая часть. Создана для сложных задач рассуждения и взаимодействия с инструментами. Для таких систем обычно требуются астрономические вычислительные затраты, поэтому несколько миллионов выглядят почти смешно.

История повторяется. В конце 2024 года китайская DeepSeek обучила базовую модель V3 за 5,5 млн долларов. А рассуждающую надстройку R1 — за 294 тыс. Kimi K2-Thinking тоже построена на базовой K2, так что пропорция схожая. Правда, эти оценки не включают эксперименты, тестирование, аренду офисов и зарплаты.

В большинстве бенчмарков K2-Thinking держится на уровне лидирующих западных моделей вроде GPT-5 Pro и Grok 4. А теперь про цены конкурентов. Финальный этап обучения GPT-4, по оценке SemiAnalysis, стоил 63 млн долларов. В отчёте AI Index фигурирует ещё большая сумма в 78 млн. А полное обучение Grok 4 аналитики Epoch AI оценили в астрономические 490 млн долларов.

Либо это какая-то магия оптимизации, либо кто-то что-то недоговаривает. Либо кто-то сильно переплачивает за вычисления.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.