Hugging Face бросает вызов DeepSeek: Проект Open-R1 раскрывает секреты китайского ИИ

Post Thumbnail

Команда Hugging Face представила первые результаты проекта Open-R1, направленного на воспроизведение технологий китайского искусственного интеллекта DeepSeek-R1. За неделю исследователям удалось достичь значительного прогресса в понимании и репликации этой передовой системы.

Ключевым достижением стало успешное воспроизведение результатов тестирования на бенчмарке MATH-500. Исследователи подтвердили впечатляющие показатели различных версий модели: DeepSeek-R1-Distill-Qwen-32B достигла точности 95.0% по сравнению с заявленными 94.3%, а версия на базе Llama-70B показала результат 93.4% против официальных 94.5%.

В ходе исследования была обнаружена уникальная особенность DeepSeek-R1 – беспрецедентная длина генерируемых ответов. Анализ распределения в наборе данных OpenThoughts показал, что средняя длина ответа составляет около 6000 токенов, а в некоторых случаях превышает 20 000 токенов. «Учитывая, что средняя страница содержит примерно 500 слов, а один токен немного короче слова, многие ответы превышают объем в 10 страниц», – отмечают исследователи.

Для обеспечения прозрачности исследований команда Hugging Face создала открытую таблицу лидеров Open-R1, где сообщество может следить за прогрессом в воспроизведении результатов. Особое внимание уделяется проблеме значительных требований к памяти GPU при обучении из-за необходимости генерации длинных последовательностей.

Проект Open-R1, запущенный всего неделю назад, объединил усилия различных команд и сообщества разработчиков. Основной целью остается воспроизведение конвейера обучения и синтетических данных DeepSeek-R1, что позволит лучше понять принципы работы этой передовой системы искусственного интеллекта.

Эта инициатива демонстрирует растущую тенденцию к открытости и сотрудничеству в сфере ИИ, где даже самые сложные технологические достижения становятся предметом коллективного изучения и воспроизведения мировым сообществом разработчиков.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.