Новая модель Seed-Coder-8B от ByteDance превосходит более крупных конкурентов

Post Thumbnail

Компания ByteDance, известная как создатель TikTok, выпустила новую языковую модель для программирования под названием Seed-Coder-8B. Это небольшая модель, которая показывает потрясающие результаты в задачах, связанных с кодом. Превосходя даже некоторые гораздо более крупные решения, включая Claude Sonnet 3.7 и o1-mini.

Модель вышла в 3 версиях: базовая, инструктивная и модель с рассуждениями. При этом она имеет контекстное окно в 32000 токенов.

Что делает эту модель особенной — прежде всего, подход к сбору и обработке данных. ByteDance использовали методику, похожую на подход компании DeepSeek, но значительно усовершенствованную. Вместо множества ручных фильтров для очистки исходных данных они создали единый фильтр на основе искусственного интеллекта.

Для этого китайские разработчики специально обучили небольшую модель оценивать качество кода по таким параметрам, как читабельность, модульность, ясность и возможность повторного использования. Затем эту модель применили ко всему набору данных, отбрасывая наиболее проблемные файлы. Таким образом удалось избавиться примерно от 10% исходного набора данных, что представляло собой, по сути, просто мусор.

Специальные фильтры на основе искусственного интеллекта оценивали код из GitHub и других веб-источников, отсеивая низкокачественные примеры. Таким образом разработчики отфильтровали данные объёмом примерно в 2.3 триллиона токенов.

Результат впечатляет! Seed-Coder превосходит аналоги с открытым исходным кодом своего размера на всех тестах, включая генерацию, автодополнение и рассуждения. А в некоторых случаях даже более крупные модели. При этом модели полностью открыты для использования и исследования.

Думаю, именно высокая специализация позволяет достичь превосходных результатов в конкретной области при сохранении компактного размера. Что открывает путь к множеству узкоспециализированных моделей вместо единой универсальной.
Технический отчет, репозиторий и веса модели Seed-Coder-8B — в описании.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.