Post Thumbnail

DeepSeek R1 обошла Qwen 3 и сократила разрыв с Gemini 2.5 Pro

Подоспели данные по DeepSeek R1, которая получила серьёзное обновление. И результаты впечатляют. Модель теперь уверенно обходит своего конкурента Qwen 3 размером 235 миллиардов параметров. Хотя она всё ещё отстаёт от таких флагманов как Gemini 2.5 Pro и O3, разрыв существенно сократился. Главное улучшение связано с увеличением глубины размышлений — теперь модель в среднем использует 23000 токенов для решения задач, тогда как предыдущая версия ограничивалась 12000. Эта способность к более глубокому анализу принесла впечатляющие результаты. Например, в тесте AIME точность выросла с 70% до 87,5%. Кроме впечатляющих успехов в бенчмарках, новая версия стала гораздо меньше галлюцинировать и значительно улучшила свои способности в области фронтенд-разработки. Хотя до уровня Claude в этой сфере ей ещё предстоит дорасти.

Думаю, в течение ближайшего года мы увидим новую волну интеграции крупных языковых моделей в системы дистилляции знаний. Где гигантские модели будут выступать в роли “учителей” для компактных версий. Что приведёт к быстрому прорыву в эффективности малых моделей и их внедрению в мобильные устройства.

Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.

Latest News

ChatGPT называет пользователей "звёздными семенами" с планеты Лира

Оказывается ChatGPT может увлекать пользователей в мир научно необоснованных и мистических теорий.

ИИ-музыка вызывает более сильные эмоции чем человеческая

Вы когда-нибудь задумывались, почему 1 мелодия пробирает до мурашек, а другая оставляет равнодушным? Учёные обнаружили нечто интересное. Музыка, созданная искусственным интеллектом, вызывает у людей более интенсивные эмоциональные реакции, чем композиции, написанные человеком.

GPT-5 взломали за 24 часа

2 независимые исследовательские компании NeuralTrust и SPLX всего за 24 часа после релиза GPT-5 обнаружили критические уязвимости в системе безопасности новой модели. Для сравнения, Grok-4 был взломан за 2 дня, что делает случай с GPT-5 ещё более тревожным.

Cloudflare заблокировала Perplexity за 6 млн скрытых запросов в день

Cloudflare нанесла сокрушительный удар по Perplexity AI, заблокировав доступ поисковому стартапу к тысячам сайтов. Причина? Беспрецедентное по масштабу скрытое сканирование веб-ресурсов вопреки явным запретам владельцев!

Угрозы и $1 трлн не улучшают работу нейросетей

Вы наверняка видели эти "секретные трюки" для управления нейросетями. Такие как угрозы, обещания наград, эмоциональные манипуляции. Но работают ли они на самом деле? Исследователи из Пенсильванского университета и Уортонской школы бизнеса провели масштабный эксперимент с 5 передовыми моделями: Gemini 1.5 Flash, Gemini 2.0 Flash, GPT-4o, GPT-4o-mini и GPT o4-mini.