Учёные нашли идиотский способ улучшить ответы нейросетей

Post Thumbnail

Исследователи из Google случайно наткнулись на абсурдный лайфхак, который реально работает. Если повторять промпт дважды — то есть отправлять запрос не в виде обычного текста, а копировать его 2 раза подряд — качество ответов модели в 67% случаев статистически значимо улучшается.

Звучит как издевательство, но цифры не врут. Правда, есть 1 важный нюанс: это работает только для обычных моделей без цепочек рассуждений. С моделями, которые используют reasoning, эффект нейтральный или слегка положительный, так что применять смысла особо нет.

А теперь самое интересное — почему вообще это работает? Все мы уже выучили, что порядок токенов в промпте важен. И это потому, что большинство моделей обучаются каузально — то есть предыдущие токены не получают доступа к следующим. Тут та же логика. Грубо говоря, получается, что какие-то токены в промпте никогда не видят другие, а повторяя запрос, мы эту асимметрию устраняем — и качество растёт.

И вот тут начинается самое смешное. Авторы показывают, что количество генерируемых токенов от повтора промпта не растёт, как и задержка ответа. То есть лайфхак почти бесплатный.

Почему тогда для моделей с reasoning не подходит? Тут тоже есть объяснение. Просто они уже самостоятельно научились повторять промпт сами себе. Вы точно это замечали. То есть здесь ещё 1 повторение уже не даёт такого эффекта, а в случае с обычными моделями мы просто выносим этот трюк наружу.

Получается, самый тупой хак оказался рабочим.

Почитать из последнего
Китайская нейросеть GLM за 6 долларов обошла Claude Sonnet по кодингу
Вот вам история о том, как китайцы решили показать Западу, кто тут главный в нейросетях для программирования. Компания Zhipu AI выпустила GLM-4.7. Это флагманская модель с фокусом на кодинг и агентные задачи. И знаете что? По заявлениям разработчиков, на бенчмарке LiveCodeBench модель обошла Claude Sonnet 4.5. На математическом тесте AIME 25 GLM-4.7 тоже показала лучший результат среди моделей. Опередив и Claude Sonnet, и GPT-5.1.
100 тыс. диалогов подтвердили экономию 80% времени с помощью ИИ
Anthropic проанализировала 100 тыс. реальных диалогов с Claude. И эти цифры теперь можно использовать в спорах о пользе искусственного интеллекта. Задачи, которые у людей занимают около 90 минут и стоят примерно 55 долларов труда, Claude выполняет на 80% быстрее человека.
Обнаружен способ обхода защиты ИИ в 90% случаев
Стихи ломают защиту больших языковых моделей. И это плохо для индустрии. Исследователи из DEXAI и Университета Сапиенцы в Риме выяснили, чтобы заставить искусственный интеллект ответить на опасный запрос, достаточно промт написать в стихах. В некоторых случаях «поэтические взломы» срабатывали в более чем 90% попыток.
Google опасался ошибок, а OpenAI на этом заработал миллиарды
Стэнфорд выпустил интервью с создателем Google Сергеем Брином, и там прозвучала фраза, которая объясняет всё происходящее в индустрии ИИ. «Главной ошибкой Google было недооценить трансформеры». Не технология подвела - подвела вера в неё.
Крёстный отец ИИ назвал AGI полной чушью
Один из «крестных отцов» искусственного интеллекта Ян Лекун заявил, что понятия general intelligence или AGI вообще не существует. Это не просто провокация - это удар по основам всей дискуссии об ИИ. Потому что если нет понятия, то что мы вообще пытаемся создать?