OpenAI, Anthropic и Google объединились против галлюцинаций ИИ

Post Thumbnail

Компания Thomson Reuters через своё подразделение Labs создала Trust in AI Alliance. И туда вошли старшие инженеры Anthropic, OpenAI, Google и AWS. Цель звучит амбициозно. Разработать общие принципы для надёжных агентных систем ИИ. Проще говоря, заставить нейросети перестать нести чушь с уверенным видом.

Проблема в том что агентный искусственный интеллект не просто отвечает на вопросы, а автономно принимает решения и действует. Если обычная модель выдаёт галлюцинацию, пользователь получает разовую ошибку. Если галлюцинирует агент, он действует на основе ложной информации и накапливает ошибки в цепочке решений. Где каждый следующий шаг усугубляет предыдущий. Получается снежный ком из бреда.

Компании уже исследуют проблему по отдельности, но особо не преуспели. OpenAI выяснила, что модели галлюцинируют из-за системы оценки. Которая вознаграждает угадывание а не признание неуверенности. Anthropic обнаружила в Claude внутренние цепи отказа. Механизм который должен заставлять модель молчать если она не уверена. Но почему-то в некоторых случаях не срабатывает.

А Thomson Reuters зарабатывает на продуктах для юристов, налоговиков и финансистов. Профессий, где галлюцинации могут стоить карьеры или судебного иска. Участники альянса планируют делиться опытом и встраивать доверие в архитектуру систем. Результаты обещают публиковать открыто.

Ну что, пожелаем им удачи в этом непростом деле.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.