Post Thumbnail

«Будь краток» — верный способ заставить чат-бот ошибаться чаще

Оказывается, когда мы просим чат-бота дать краткий ответ, это может значительно повысить вероятность генерации ложной информации. Французская компания Giskard, занимающаяся тестированием систем искусственного интеллекта, провела детальное исследование на эту тему. Учёные установили, что запросы на короткие ответы, особенно по неоднозначным темам, могут существенно снизить фактическую точность ответов моделей искусственного интеллекта.

Как отмечают исследователи, даже простые изменения в инструкциях системе могут кардинально влиять на склонность модели к галлюцинациям. То есть к созданию информации, не соответствующей действительности. Это открытие имеет серьёзные последствия для практического применения, поскольку многие приложения специально настроены на краткие ответы с целью снижения использования данных, улучшения скорости работы и сокращения затрат.

Проблема галлюцинаций остаётся одной из самых трудноразрешимых в сфере искусственного интеллекта. Даже самые современные модели иногда выдают выдуманную информацию. Это особенность их вероятностной природы. И что интересно, более новые модели, основанные на алгоритмах рассуждения, такие как OpenAI o3, галлюцинируют даже чаще, чем их предшественники.

В своём исследовании Giskard выявила определённые запросы, усиливающие проблему галлюцинаций. Например, расплывчатые или содержащие ошибочные предпосылки вопросы с требованием краткого ответа.

Почему так происходит? По мнению исследователей Giskard, когда модели не разрешают отвечать подробно, у неё просто нет «пространства». Для того, чтобы признать ложные предпосылки и указать на ошибки. Другими словами, для убедительного опровержения требуются более развёрнутые объяснения.

Мне кажется, сейчас наблюдается некий конфликт между оптимизацией для пользовательского опыта и фактической точностью. И получается, когда модели вынуждены быть краткими, они последовательно выбирают краткость в ущерб точности.

Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.
Latest News
UBTech отправит роботов Walker S2 служить на границу Китая за $37 млн

Китайская компания UBTech выиграла контракт на $37 миллионов. И отправит человекоподобных роботов Walker S2 служить на границу Китая с Вьетнамом. South China Morning Post сообщает, что роботы будут взаимодействовать с туристами и персоналом, выполнять логистические операции, досматривать грузы и патрулировать местность. И что характерно — они умеют самостоятельно менять свою батарею.

Anthropic случайно раскрыла внутренний документ о "душе" Claude

Anthropic случайно раскрыла пользователю "душу" искусственного интеллекта. И это не метафора. Это вполне конкретный внутренний документ.

Дженсен Хуанг приказал сотрудникам Nvidia использовать ИИ везде

Дженсен Хуанг объявил внутри Nvidia тотальную мобилизацию под знаменем искусственного интеллекта. И это уже не рекомендация. Это требование.

ИИ-чатботы генерируют контент, усугубляющий расстройства питания

Совместное исследование Стэнфордского университета и Центра демократии и технологий показало тревожную картину. Чат-боты с искусственным интеллектом представляют серьёзный риск для людей с расстройствами пищевого поведения. Учёные предупреждают, что нейросети раздают вредные советы о диетах. Предлагают способы скрыть расстройство и генерируют "вдохновляющий контент для похудения", который усугубляет проблему.

OpenAGI выпустил модель Lux, которая обгоняет Google и OpenAI

Стартап OpenAGI выпустил модель Lux для управления компьютером и заявляет, что это прорыв. По бенчмаркам модель на целое поколение обгоняет аналоги от Google, OpenAI и Anthropic. Кроме того, она работает быстрее. Примерно 1 секунда на шаг вместо 3 секунд у конкурентов. И в 10 раз дешевле по стоимости обработки 1 токена.