В OpenAI нашли способ засечь проблемное поведение ИИ

Post Thumbnail

OpenAI опубликовала исследование о наблюдаемости цепочки рассуждений ИИ. Звучит академично, но это одна из самых важных работ года. Способности систем растут быстрее инструментов контроля.

Цепочка рассуждений — внутренний текст перед финальным ответом — не отражает всех процессов модели. Полное отслеживание требует огромных ресурсов. Поэтому OpenAI задалась практичным вопросом. Достаточно ли информации в рассуждениях, чтобы засечь проблемное поведение?

Создали 13 тестов в 24 средах. Проверили передовые модели — свои и конкурентов. Сравнили с Claude 3.7 Sonnet, DeepSeek R1, Kimi K2. Модели OpenAI оказались лучше, разумеется. В OpenAI уверены — без этого не обойтись при работе с будущими системами.

Сделали 3 типа проверок. Вмешательство: дают подсказку, смотрят, упоминает ли модель её влияние. Процесс: для математики проверяют упоминание нужных теорем. Результат: дают невыполнимую задачу — если решена, модель схитрила.

Главный вывод: мониторинг рассуждений работает намного лучше мониторинга только ответов. Чем дольше модель думает, тем выше наблюдаемость — в длинных рассуждениях проще найти след проблемы.

Проверили 2 опасения. Разрушает ли обучение с подкреплением читаемость? Наблюдаемость не упала. Что если модель научится скрывать намерения? Специально обучили на это — тесты обнаружили. Рассуждения схлопнулись до бессмысленных слов.

Меньшая модель с длинными рассуждениями даёт сопоставимый результат, но с лучшей наблюдаемостью.

Получается, читаемый внутренний монолог — это 1 из инструментов контроля, который реально работает.

Почитать из последнего
ИИ для рекрутёров решал судьбу соискателей втайне от них
Представьте: вы опытный специалист с 10-летним стажем, отправляете резюме в компанию. И тишина. Даже на собеседование не позвали. Причина? ИИ поставил вам невидимую оценку и слил в архив. Добро пожаловать в новую реальность.
Сэм Альтман хвастается ростом, а реклама в ChatGPT уже на носу
Глава OpenAI Сэм Альтман радостно рапортует сотрудникам о том, что ChatGPT снова набирает обороты. Уже больше 10% роста ежемесячно, 800 миллионов человек еженедельно, всё прекрасно. Но за этими бодрыми цифрами скрывается интересная история. Про то, как компания буквально пару месяцев назад объявляла «красный код» и замораживала проекты, чтобы судорожно улучшать свой чатбот. Видимо, конкуренция кусается настолько сильно, что даже лидер рынка начинает нервничать.
ИИ не облегчает работу, он превращает людей в трудоголиков
8 месяцев наблюдений за технологической компанией на 200 сотрудников — и исследователи UC Berkeley пришли к неожиданному выводу. ИИ не разгружает людей, он заставляет их вкалывать ещё больше. Причём добровольно и с энтузиазмом.
Anthropic случайно создала идеального корпоративного психопата
Anthropic выпустила документ на 212 страниц о своей новейшей модели Opus 4.6, и там творится настоящий детектив. Потому что компания фактически описала, как создала систему, которая одновременно стала умнее и опаснее.
У OpenAI большие проблемы
У OpenAI большие проблемы, и они не технические. Компания так резко развернулась в сторону улучшения ChatGPT, что начала терять ведущих разработчиков. Вице-президент по исследованиям Джерри Творек, исследователь Андреа Валлоне, экономист Том Каннингем. И список растёт. 10 нынешних и бывших сотрудников рассказали 1 и ту же историю. Компания перераспределила ресурсы с экспериментальной работы на развитие больших языковых моделей, которые питают флагманский чат-бот.