DeepSeek выпустил 2 модели с прорывом в агентных системах и ИИ
Китайский стартап DeepSeek выпустил 2 модели, которые претендуют на звание прорыва в агентных системах. И судя по метрикам, это не просто маркетинг.
DeepSeek-V3.2 — это официальный преемник экспериментальной версии. Доступна в приложении, на сайте и через API. DeepSeek-V3.2-Speciale — улучшенная версия с акцентом на продвинутое многошаговое рассуждение. Пока работает только через API.
Обе модели делают упор на глубокие цепочки рассуждений и поведение для агентных сценариев. Это планирование, решение задач, сложные выводы и работа со структурированными данными.
DeepSeek-V3.2-Speciale стала первой опенсорсной моделью, которая выбивает золото в топовых олимпиадах. Золото на 4 авторитетных олимпиадах!. По метрикам Speciale обходит Gemini 3.0 Pro на математике, а менее мощная DeepSeek-V3.2 опережает Claude-4.5 Sonnet в кодинге.
Но есть нюанс. Test-time compute огромен. Speciale совсем не экономит токены, так что инференс получается дорогой. Авторы сами признают, что “оставили оптимизацию на будущие исследования”.
Технические причины успеха: это новая архитектура DeepSeek Sparse Attention, масштабный стабильный RL-тренинг и большой пайплайн для агентных задач. И это ключевое изменение архитектуры по сравнению с предыдущим поколением.
Обе модели чрезвычайно хороши во всяких агентских задачах, и особенно в поиске и задачах с браузером. Для этого сгенерировали 1800 синтетических сред, в которых агенты обучались выполнять совершенно разные задачи. Очень крутая модель получилась, респект.