Французский стартап представил альтернативу DeepSeek
Mistral AI выпустили новое опенсорсное семейство моделей, и это не просто очередной релиз. 4 модели сразу: 3 компактных модели на 14, 8 и 3 млрд параметров плюс флагманская Mistral Large 3.
Mistral Large 3 обучали с нуля на 3 тыс. NVIDIA H200 GPU. Вполне приличный кластер. И это первая MoE-модель стартапа со времён знаменитой Mixtral. 675 млрд параметров, 41 млрд активных. По метрикам модель дотягивает до DeepSeek 3 и 1 и Kimi K2.
Отдельно хвастаются мультиязычностью. Заявляют, что на языках, кроме английского и китайского, их модель лучшая в своём классе. Плюс понимание изображений.
Mistral Small 3 выдаёт свыше 81% на MMLU. Для компактной модели это очень высокий показатель при низких задержках.
Mistral Medium 3 и 1 заняла первое место в категории English (no style control), второе в общем зачёте. Плюс топ-3 в задачах кодирования и длинных запросов. Показывает около 90% качества тяжёлых моделей, но при существенно меньших ресурсных затратах.
Получается, Mistral делает ставку не на гонку параметров, а на разнообразие. От крошечных моделей для устройств с ограниченными ресурсами до флагмана корпоративного уровня. И всё это под открытой лицензией. 1 из лучших соотношений цена-производительность на рынке, как они сами заявляют.