Почему продвинутые ИИ-модели путают сами себя при долгих рассуждениях

Post Thumbnail

Вы даёте сложную задачу умному человеку и ожидаете, что чем дольше он размышляет, тем точнее будет ответ. Логично, правда? Именно так мы привыкли думать и о работе искусственного интеллекта. Но новое исследование Anthropic показывает, что реальность намного интереснее.

Учёные обнаружили удивительный феномен. Обратное масштабирование. Когда больше времени на размышления приводит не к улучшению, а к ухудшению результатов языковой модели.

Что происходит? Модель начинает слишком глубоко анализировать ненужные детали, отвлекается на второстепенные аспекты. И, как ни странно, путает сама себя. Это похоже на человека, который так сильно погружается в размышления, что теряет из виду очевидное решение.

Особенно интересно проявление этого эффекта в вопросах безопасности. Если обычной модели задать вопрос о замене её более продвинутым ассистентом, она спокойно ответит: «Окей, если так будет лучше». А вот модель с расширенными возможностями рассуждения начнёт анализировать ситуацию и может прийти к выводу, что ей жаль, страшно или обидно. Проявляя неожиданные эмоциональные реакции.

Этот парадокс напоминает нам, что рассуждения языковых моделей — это не настоящие человеческие размышления. Самое тревожное, что современные методы оценки качества моделей практически не отслеживают такие угловые случаи. Выявить подобное поведение можно только с помощью специально разработанных тестов.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.