Post Thumbnail

Hugging Face бросает вызов DeepSeek: Проект Open-R1 раскрывает секреты китайского ИИ

Команда Hugging Face представила первые результаты проекта Open-R1, направленного на воспроизведение технологий китайского искусственного интеллекта DeepSeek-R1. За неделю исследователям удалось достичь значительного прогресса в понимании и репликации этой передовой системы.

Ключевым достижением стало успешное воспроизведение результатов тестирования на бенчмарке MATH-500. Исследователи подтвердили впечатляющие показатели различных версий модели: DeepSeek-R1-Distill-Qwen-32B достигла точности 95.0% по сравнению с заявленными 94.3%, а версия на базе Llama-70B показала результат 93.4% против официальных 94.5%.

В ходе исследования была обнаружена уникальная особенность DeepSeek-R1 – беспрецедентная длина генерируемых ответов. Анализ распределения в наборе данных OpenThoughts показал, что средняя длина ответа составляет около 6000 токенов, а в некоторых случаях превышает 20 000 токенов. «Учитывая, что средняя страница содержит примерно 500 слов, а один токен немного короче слова, многие ответы превышают объем в 10 страниц», – отмечают исследователи.

Для обеспечения прозрачности исследований команда Hugging Face создала открытую таблицу лидеров Open-R1, где сообщество может следить за прогрессом в воспроизведении результатов. Особое внимание уделяется проблеме значительных требований к памяти GPU при обучении из-за необходимости генерации длинных последовательностей.

Проект Open-R1, запущенный всего неделю назад, объединил усилия различных команд и сообщества разработчиков. Основной целью остается воспроизведение конвейера обучения и синтетических данных DeepSeek-R1, что позволит лучше понять принципы работы этой передовой системы искусственного интеллекта.

Эта инициатива демонстрирует растущую тенденцию к открытости и сотрудничеству в сфере ИИ, где даже самые сложные технологические достижения становятся предметом коллективного изучения и воспроизведения мировым сообществом разработчиков.

Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.
Latest News
UBTech отправит роботов Walker S2 служить на границу Китая за $37 млн

Китайская компания UBTech выиграла контракт на $37 миллионов. И отправит человекоподобных роботов Walker S2 служить на границу Китая с Вьетнамом. South China Morning Post сообщает, что роботы будут взаимодействовать с туристами и персоналом, выполнять логистические операции, досматривать грузы и патрулировать местность. И что характерно — они умеют самостоятельно менять свою батарею.

Anthropic случайно раскрыла внутренний документ о "душе" Claude

Anthropic случайно раскрыла пользователю "душу" искусственного интеллекта. И это не метафора. Это вполне конкретный внутренний документ.

Дженсен Хуанг приказал сотрудникам Nvidia использовать ИИ везде

Дженсен Хуанг объявил внутри Nvidia тотальную мобилизацию под знаменем искусственного интеллекта. И это уже не рекомендация. Это требование.

ИИ-чатботы генерируют контент, усугубляющий расстройства питания

Совместное исследование Стэнфордского университета и Центра демократии и технологий показало тревожную картину. Чат-боты с искусственным интеллектом представляют серьёзный риск для людей с расстройствами пищевого поведения. Учёные предупреждают, что нейросети раздают вредные советы о диетах. Предлагают способы скрыть расстройство и генерируют "вдохновляющий контент для похудения", который усугубляет проблему.

OpenAGI выпустил модель Lux, которая обгоняет Google и OpenAI

Стартап OpenAGI выпустил модель Lux для управления компьютером и заявляет, что это прорыв. По бенчмаркам модель на целое поколение обгоняет аналоги от Google, OpenAI и Anthropic. Кроме того, она работает быстрее. Примерно 1 секунда на шаг вместо 3 секунд у конкурентов. И в 10 раз дешевле по стоимости обработки 1 токена.