DeepSeek выпустил 2 модели с прорывом в агентных системах и ИИ

Post Thumbnail

Китайский стартап DeepSeek выпустил 2 модели, которые претендуют на звание прорыва в агентных системах. И судя по метрикам, это не просто маркетинг.

DeepSeek-V3.2 — это официальный преемник экспериментальной версии. Доступна в приложении, на сайте и через API. DeepSeek-V3.2-Speciale — улучшенная версия с акцентом на продвинутое многошаговое рассуждение. Пока работает только через API.

Обе модели делают упор на глубокие цепочки рассуждений и поведение для агентных сценариев. Это планирование, решение задач, сложные выводы и работа со структурированными данными.

DeepSeek-V3.2-Speciale стала первой опенсорсной моделью, которая выбивает золото в топовых олимпиадах. Золото на 4 авторитетных олимпиадах!. По метрикам Speciale обходит Gemini 3.0 Pro на математике, а менее мощная DeepSeek-V3.2 опережает Claude-4.5 Sonnet в кодинге.

Но есть нюанс. Test-time compute огромен. Speciale совсем не экономит токены, так что инференс получается дорогой. Авторы сами признают, что «оставили оптимизацию на будущие исследования».

Технические причины успеха: это новая архитектура DeepSeek Sparse Attention, масштабный стабильный RL-тренинг и большой пайплайн для агентных задач. И это ключевое изменение архитектуры по сравнению с предыдущим поколением.

Обе модели чрезвычайно хороши во всяких агентских задачах, и особенно в поиске и задачах с браузером. Для этого сгенерировали 1800 синтетических сред, в которых агенты обучались выполнять совершенно разные задачи. Очень крутая модель получилась, респект.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.