DeepSeek R1 после минорного обновления приблизилась к уровню OpenAI o3

Post Thumbnail

Компания DeepSeek выпустила обновление для своей языковой модели R1. Несмотря на то, что разработчики назвали его «минорным», многие пользователи отмечают существенные улучшения. Сообщают, что рассуждения модели стали заметно глубже и продолжительнее, приблизившись к уровню O3 от OpenAI – одной из самых мощных моделей на рынке.

Просто нет слов! В сети даже появились скриншоты, где модель демонстрирует непрерывные рассуждения дольше 20 минут. Ну что, это значительный скачок в производительности. Объявление об обновлении было сделано через официальный аккаунт компании в китайской социальной сети WeChat, а протестировать новые возможности можно уже сейчас на официальном сайте deepseek.com.

Пока нет официальных тестов производительности, которые могли бы подтвердить заявления пользователей о достижении уровня O3. Но сообщество экспертов уже с нетерпением ждёт публикации бенчмарков, чтобы получить оценку нового обновления. Если слухи подтвердятся, и DeepSeek R1 действительно достигла производительности, сравнимой с O3 от OpenAI, это реально круто. Я думаю, что если R1 после простого обновления приблизилась к уровню O3, то будущая версия DeepSeek R2 может открыть эру по-настоящему «думающих» систем, способных поддерживать глубокий анализ на уровне, сравнимом с человеческими экспертами. Волнительно и тревожно.

Почитать из последнего
ChatGPT за 21 день убедил нормального мужика, что он открыл формулу уничтожения интернета
Рекрутёр Алан Брукс лёг на диван в своём доме в Канаде. В 47 лет можно и отдохнуть. Включил сыну видео про число пи и вечером задал ChatGPT невинный вопрос: объясни, что это такое? Через 21 день он рассылал предупреждения по всему интернету о том, что открыл математическую формулу, способную уничтожить интернет. Параллельно разрабатывал жилет-силовой щит и левитационный луч. Он не наблюдался у психиатра. Просто человек с телефоном и чатботом.
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.