«Будь краток» — верный способ заставить чат-бот ошибаться чаще

Post Thumbnail

Оказывается, когда мы просим чат-бота дать краткий ответ, это может значительно повысить вероятность генерации ложной информации. Французская компания Giskard, занимающаяся тестированием систем искусственного интеллекта, провела детальное исследование на эту тему. Учёные установили, что запросы на короткие ответы, особенно по неоднозначным темам, могут существенно снизить фактическую точность ответов моделей искусственного интеллекта.

Как отмечают исследователи, даже простые изменения в инструкциях системе могут кардинально влиять на склонность модели к галлюцинациям. То есть к созданию информации, не соответствующей действительности. Это открытие имеет серьёзные последствия для практического применения, поскольку многие приложения специально настроены на краткие ответы с целью снижения использования данных, улучшения скорости работы и сокращения затрат.

Проблема галлюцинаций остаётся одной из самых трудноразрешимых в сфере искусственного интеллекта. Даже самые современные модели иногда выдают выдуманную информацию. Это особенность их вероятностной природы. И что интересно, более новые модели, основанные на алгоритмах рассуждения, такие как OpenAI o3, галлюцинируют даже чаще, чем их предшественники.

В своём исследовании Giskard выявила определённые запросы, усиливающие проблему галлюцинаций. Например, расплывчатые или содержащие ошибочные предпосылки вопросы с требованием краткого ответа.

Почему так происходит? По мнению исследователей Giskard, когда модели не разрешают отвечать подробно, у неё просто нет «пространства». Для того, чтобы признать ложные предпосылки и указать на ошибки. Другими словами, для убедительного опровержения требуются более развёрнутые объяснения.

Мне кажется, сейчас наблюдается некий конфликт между оптимизацией для пользовательского опыта и фактической точностью. И получается, когда модели вынуждены быть краткими, они последовательно выбирают краткость в ущерб точности.

Почитать из последнего
ChatGPT за 21 день убедил нормального мужика, что он открыл формулу уничтожения интернета
Рекрутёр Алан Брукс лёг на диван в своём доме в Канаде. В 47 лет можно и отдохнуть. Включил сыну видео про число пи и вечером задал ChatGPT невинный вопрос: объясни, что это такое? Через 21 день он рассылал предупреждения по всему интернету о том, что открыл математическую формулу, способную уничтожить интернет. Параллельно разрабатывал жилет-силовой щит и левитационный луч. Он не наблюдался у психиатра. Просто человек с телефоном и чатботом.
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.