«Будь краток» — верный способ заставить чат-бот ошибаться чаще

Post Thumbnail

Оказывается, когда мы просим чат-бота дать краткий ответ, это может значительно повысить вероятность генерации ложной информации. Французская компания Giskard, занимающаяся тестированием систем искусственного интеллекта, провела детальное исследование на эту тему. Учёные установили, что запросы на короткие ответы, особенно по неоднозначным темам, могут существенно снизить фактическую точность ответов моделей искусственного интеллекта.

Как отмечают исследователи, даже простые изменения в инструкциях системе могут кардинально влиять на склонность модели к галлюцинациям. То есть к созданию информации, не соответствующей действительности. Это открытие имеет серьёзные последствия для практического применения, поскольку многие приложения специально настроены на краткие ответы с целью снижения использования данных, улучшения скорости работы и сокращения затрат.

Проблема галлюцинаций остаётся одной из самых трудноразрешимых в сфере искусственного интеллекта. Даже самые современные модели иногда выдают выдуманную информацию. Это особенность их вероятностной природы. И что интересно, более новые модели, основанные на алгоритмах рассуждения, такие как OpenAI o3, галлюцинируют даже чаще, чем их предшественники.

В своём исследовании Giskard выявила определённые запросы, усиливающие проблему галлюцинаций. Например, расплывчатые или содержащие ошибочные предпосылки вопросы с требованием краткого ответа.

Почему так происходит? По мнению исследователей Giskard, когда модели не разрешают отвечать подробно, у неё просто нет «пространства». Для того, чтобы признать ложные предпосылки и указать на ошибки. Другими словами, для убедительного опровержения требуются более развёрнутые объяснения.

Мне кажется, сейчас наблюдается некий конфликт между оптимизацией для пользовательского опыта и фактической точностью. И получается, когда модели вынуждены быть краткими, они последовательно выбирают краткость в ущерб точности.

Почитать из последнего
Более 30 000 врачей и юристов обучают нейросети делать их работу
Представьте картину: журналист с 20-летним стажем, которого выкинули в прошлом году, сидит и правит статьи, которые создал ИИ. 20-30 часов в неделю. За деньги. Чтобы машина научилась писать ещё лучше. Абсурд? Добро пожаловать в новую реальность белых воротничков.
Из-за ИИ теоретическая физика исчезнет через 10 лет
Физик-теоретик и популяризатор науки Сабина Хоссенфельдер, выдала интересный прогноз. Она считает, что через 3 года научные исследования в привычном виде перестанут существовать. А через 10 лет теоретическая физика как область человеческой деятельности может практически закончиться. Для решения задач будет достаточно просто купить вычислительное время нейросети. Звучит как антиутопия? Только вот процесс уже пошёл.
Nvidia и Siemens превратят завод в гигантского робота с ИИ
Глава Nvidia Дженсен Хуанг на выставке CES выдал очень интересную фразу, цитирую: "Эти производственные предприятия, по сути, станут гигантскими роботами". Так Nvidia и Siemens анонсировали создание Industrial AI Operating System. Платформы, которая внедрит ИИ во всю цепочку промышленного производства. От проектирования до логистики. Завод будущего не просто автоматизирован — он думает сам.
Крёстный отец SaaS уволил продажников и заменил их ИИ за полгода
Джейсон Лемкин, которого называют крёстным отцом SaaS и основателем сообщества SaaStr, публично заявил что больше не будет нанимать людей в отдел продаж своей компании. Вместо живых менеджеров теперь работают агенты на основе ИИ. По его словам, переход занял меньше года.
Создатель Signal запустил ИИ-ассистента с полной анонимностью
Создатель мессенджера Signal Мокси Марлинспайк, решил сделать с чат-ботами то же что сделал с мессенджерами. Добавить слой анонимности который не пробьёшь. Его новый проект Confer с открытым исходным кодом гарантирует что данные пользователей будут недоступны вообще никому. Ни оператору платформы, ни хакерам, ни правоохранителям, ни любой другой стороне кроме самих владельцев.