Hugging Face бросает вызов DeepSeek: Проект Open-R1 раскрывает секреты китайского ИИ

Post Thumbnail

Команда Hugging Face представила первые результаты проекта Open-R1, направленного на воспроизведение технологий китайского искусственного интеллекта DeepSeek-R1. За неделю исследователям удалось достичь значительного прогресса в понимании и репликации этой передовой системы.

Ключевым достижением стало успешное воспроизведение результатов тестирования на бенчмарке MATH-500. Исследователи подтвердили впечатляющие показатели различных версий модели: DeepSeek-R1-Distill-Qwen-32B достигла точности 95.0% по сравнению с заявленными 94.3%, а версия на базе Llama-70B показала результат 93.4% против официальных 94.5%.

В ходе исследования была обнаружена уникальная особенность DeepSeek-R1 – беспрецедентная длина генерируемых ответов. Анализ распределения в наборе данных OpenThoughts показал, что средняя длина ответа составляет около 6000 токенов, а в некоторых случаях превышает 20 000 токенов. «Учитывая, что средняя страница содержит примерно 500 слов, а один токен немного короче слова, многие ответы превышают объем в 10 страниц», – отмечают исследователи.

Для обеспечения прозрачности исследований команда Hugging Face создала открытую таблицу лидеров Open-R1, где сообщество может следить за прогрессом в воспроизведении результатов. Особое внимание уделяется проблеме значительных требований к памяти GPU при обучении из-за необходимости генерации длинных последовательностей.

Проект Open-R1, запущенный всего неделю назад, объединил усилия различных команд и сообщества разработчиков. Основной целью остается воспроизведение конвейера обучения и синтетических данных DeepSeek-R1, что позволит лучше понять принципы работы этой передовой системы искусственного интеллекта.

Эта инициатива демонстрирует растущую тенденцию к открытости и сотрудничеству в сфере ИИ, где даже самые сложные технологические достижения становятся предметом коллективного изучения и воспроизведения мировым сообществом разработчиков.

Почитать из последнего
Нейросети загрязняют планету в тысячи раз меньше чем люди
Вот вам парадокс, который разорвёт мозг всем борцам за экологию и против ИИ одновременно. Пока все пишут про то, как нейросети жрут электричество и убивают планету, учёные взяли и посчитали реальные цифры. И знаете что? Оказалось, что искусственный интеллект оставляет углеродный след в сотни и тысячи раз меньше, чем живые писатели и художники.
Samsung засунет искусственный интеллект Gemini в холодильники
Samsung решила, что обычные холодильники — это прошлый век, и на выставке CES представит обновлённую линейку кухонной техники со встроенным ИИ Google Gemini. Да-да, теперь нейросеть будет жить прямо в вашем холодильнике.
Claude Opus 4.5 побил рекорд автономности, но работает через раз
Организация METR, которая тестирует способности нейросетей, зафиксировала рекорд у Claude Opus 4.5 от Anthropic. Модель может автономно работать над задачами длительностью почти 5 часов. 4 часа 49 минут, если точно. Это в 1,5 раза дольше, чем у предыдущего лидера GPT-5.1 от OpenAI, который держался на отметке 2 часа 53 минуты.
ИИ с лицом Аристотеля рассуждает о смысле жизни
Помните, как Стив Джобс мечтал засунуть Аристотеля в компьютер и задавать ему вопросы? Мейкер Никодем Бартник решил проверить, реально ли это. И собрал роботизированную голову, которая отвечает так, будто древнегреческий философ только что вернулся из прошлого.
В OpenAI нашли способ засечь проблемное поведение ИИ
OpenAI опубликовала исследование о наблюдаемости цепочки рассуждений ИИ. Звучит академично, но это одна из самых важных работ года. Способности систем растут быстрее инструментов контроля.