Новая модель для кодинга думает как разработчик со стажем

Post Thumbnail

IQuest-Coder-40B – это не просто ещё один чат-бот, который генерирует код по шаблонам из GitHub. Это новая open-source модель для кодинга с 40 миллиардами параметров. Которая обучалась совсем не так, как его конкуренты.

Все обычные модели учатся на готовых файлах и репозиториях. Смотрят на код как на картинку – вот так написано, значит так правильно. А IQuest-Coder пошёл другим путём. Его натаскивали на истории коммитов, на паттернах рефакторинга, на циклах исправления багов. Модель училась понимать не просто что написано, а как это менялось со временем и зачем. Как будто ей показывали не фотографии кода, а целые фильмы о том, как разработчики думают и работают.

Благодаря рекуррентной Loop-архитектуре с двухитерационным механизмом прохода через 80 слоев, эта штука умеет держать в голове контекст до 128 тысяч токенов. Плюс словарь из 76 800 токенов для точного кодирования редких символов и конструкций.

На SWE-Bench Verified модель выдала 81.4%. Это реальные задачи инженерных команд, исправление ошибок, рефакторинг. На LiveCodeBench 6-й версии – 81.1% по актуальным данным на 26-й год. Модель работает с современными фреймворками и стандартами так, будто она в них выросла.

Что всё это значит? А то, что ИИ перестал просто копировать чужой код. Кажется, он начал понимать стиль проектов и логику разработки.

Почитать из последнего
Alibaba научила ИИ рисовать людей без пластикового эффекта
Alibaba выкатила новое обновление своей модели для генерации изображений Qwen-Image-2512, и знаете, что в этот раз бросается в глаза? Они наконец-то решили главную проблему всех нейросетевых картинок. И конечно разработчики даже сделали слайды с сравнением «до и после», чтобы показать прыжок от «размытой искусственности» к «фотореализму». Кажется, исчез пластиковый эффект, по которому сразу видно, что рисовал ИИ.
Учёные сравнили 9000 человек с ИИ и выяснили, что люди креативнее
В журнале Nature Human Behaviour опубликовали масштабное исследование креативности людей и больших языковых моделей. Учёные из Гонконгского университета и Северо-Западного университета сравнили 9198 человек с восемью LLM на тесте дивергентного мышления. В общей сложности 215 542 прогона моделей.
OpenAI готовит армию говорящих устройств и новую голосовую модель
Издание The Information выяснило забавную вещь про OpenAI. Оказывается, когда вы общаетесь с ChatGPT голосом, вы разговариваете совсем не с той моделью, которая отвечает текстом. Голосовая версия 4o не получила ни одного обновления после выхода GPT-5. Она не умеет думать, не знает про цепочки рассуждений. Ничего из того, чем хвастались в последних релизах. Просто старая добрая болтушка, застывшая в прошлом году.
Samsung хотят обойти Apple по ИИ-функциям и вернуть лидерство
В прошлом году Samsung поставила на рынок 400 миллионов мобильных устройств с ассистентом Google Gemini. Этого, видимо, показалось мало. В этом году южнокорейский гигант намерен удвоить количество до 800 миллионов штук. Тэ Мун Ро, один из двух гендиректоров Samsung Electronics, объяснил агентству Reuters это просто. Компания стремится распространить функции ИИ на все устройства и все услуги как можно скорее.
Alibaba научила алгоритм видеть рак там, где врачи пропускают
Каменщик 57 лет в Китае пришёл в больницу проверить диабет. Обычный осмотр, ничего особенного. Через 3 дня ему звонит заведующий отделением поджелудочной железы, мол приезжайте срочно. ИИ, который прогнал его КТ-снимок, нашёл опухоль. Оказалось – рак, но на ранней стадии. Вырезали и мужчина выжил. Без этой технологии его бы нашли слишком поздно, когда 5-летняя выживаемость около 10%.