Учёные нашли идиотский способ улучшить ответы нейросетей

Post Thumbnail

Исследователи из Google случайно наткнулись на абсурдный лайфхак, который реально работает. Если повторять промпт дважды — то есть отправлять запрос не в виде обычного текста, а копировать его 2 раза подряд — качество ответов модели в 67% случаев статистически значимо улучшается.

Звучит как издевательство, но цифры не врут. Правда, есть 1 важный нюанс: это работает только для обычных моделей без цепочек рассуждений. С моделями, которые используют reasoning, эффект нейтральный или слегка положительный, так что применять смысла особо нет.

А теперь самое интересное — почему вообще это работает? Все мы уже выучили, что порядок токенов в промпте важен. И это потому, что большинство моделей обучаются каузально — то есть предыдущие токены не получают доступа к следующим. Тут та же логика. Грубо говоря, получается, что какие-то токены в промпте никогда не видят другие, а повторяя запрос, мы эту асимметрию устраняем — и качество растёт.

И вот тут начинается самое смешное. Авторы показывают, что количество генерируемых токенов от повтора промпта не растёт, как и задержка ответа. То есть лайфхак почти бесплатный.

Почему тогда для моделей с reasoning не подходит? Тут тоже есть объяснение. Просто они уже самостоятельно научились повторять промпт сами себе. Вы точно это замечали. То есть здесь ещё 1 повторение уже не даёт такого эффекта, а в случае с обычными моделями мы просто выносим этот трюк наружу.

Получается, самый тупой хак оказался рабочим.

Почитать из последнего
Внутри ИИ нашли переключатель характера
Вы думали, что характер ИИ — это какая-то эфемерная штука из настроек? Anthropic только что опубликовала исследование "The Assistant Axis", которое разбивает эту иллюзию. Оказывается, личность нейросети — это буквально измеримая координата внутри её электронных мозгов, и с ней можно делать что угодно.
Нейросети стали слишком сложными и их изучают как живых существ
Большие языковые модели стали настолько сложными, что даже создающие их инженеры не понимают, как те работают. И отказались от математических методов и начали изучать нейросети как живые организмы. Наблюдают за поведением, отслеживают внутренние сигналы, строят карты функциональных областей. Именно так биологи изучают незнакомых существ, не предполагая упорядоченной логики.
Учёные решили проблему размера контекстного окна в ИИ
Учёные из MIT решили 1 из главных проблем ИИ. Это ограничение контекстного окна. Обычные большие языковые модели работают максимум с сотнями тысяч токенов. И быстро теряют точность когда данных становится больше. Новая рекурсивная архитектура под названием RLM вообще не пытается запоминать информацию. Вместо этого она навигирует по ней как по файловой системе.
Cursor ускоряет разработку в 3-5 раз, но код становится сложнее на 40%
Университет Carnegie Mellon взял и измерил то, о чём все говорили на ощущениях. Учёные проанализировали 807 репозиториев, где разработчики начали использовать Cursor. И взяли 1380 контрольных обычных проектов и сравнили их. Причём смотрели на 1 и те же репозитории до и после внедрения, плюс контролировали общие тренды по месяцам. Метод difference-in-differences. Чтобы наверняка отсечь случайности.
AIvengo media заняла 9-е место в рейтинге агентств GEO-продвижения России 2025 года
3 января 2026 года. Российский рынок продвижения в ИИ-ассистентах переживает стадию стремительного формирования и активного роста. Аналитическое агентство Ivens Market Research опубликовало рейтинг агентств по продвижению в нейросетях по итогам 2025 года. Компания AIvengo media заняла 9-е место, войдя в десятку ведущих операторов нового направления цифрового маркетинга.