
DeepSeek R1 обошла Qwen 3 и сократила разрыв с Gemini 2.5 Pro
Подоспели данные по DeepSeek R1, которая получила серьёзное обновление. И результаты впечатляют. Модель теперь уверенно обходит своего конкурента Qwen 3 размером 235 миллиардов параметров. Хотя она всё ещё отстаёт от таких флагманов как Gemini 2.5 Pro и O3, разрыв существенно сократился. Главное улучшение связано с увеличением глубины размышлений — теперь модель в среднем использует 23000 токенов для решения задач, тогда как предыдущая версия ограничивалась 12000. Эта способность к более глубокому анализу принесла впечатляющие результаты. Например, в тесте AIME точность выросла с 70% до 87,5%. Кроме впечатляющих успехов в бенчмарках, новая версия стала гораздо меньше галлюцинировать и значительно улучшила свои способности в области фронтенд-разработки. Хотя до уровня Claude в этой сфере ей ещё предстоит дорасти.
Думаю, в течение ближайшего года мы увидим новую волну интеграции крупных языковых моделей в системы дистилляции знаний. Где гигантские модели будут выступать в роли «учителей» для компактных версий. Что приведёт к быстрому прорыву в эффективности малых моделей и их внедрению в мобильные устройства.