В OpenAI нашли способ засечь проблемное поведение ИИ

Post Thumbnail

OpenAI опубликовала исследование о наблюдаемости цепочки рассуждений ИИ. Звучит академично, но это одна из самых важных работ года. Способности систем растут быстрее инструментов контроля.

Цепочка рассуждений — внутренний текст перед финальным ответом — не отражает всех процессов модели. Полное отслеживание требует огромных ресурсов. Поэтому OpenAI задалась практичным вопросом. Достаточно ли информации в рассуждениях, чтобы засечь проблемное поведение?

Создали 13 тестов в 24 средах. Проверили передовые модели — свои и конкурентов. Сравнили с Claude 3.7 Sonnet, DeepSeek R1, Kimi K2. Модели OpenAI оказались лучше, разумеется. В OpenAI уверены — без этого не обойтись при работе с будущими системами.

Сделали 3 типа проверок. Вмешательство: дают подсказку, смотрят, упоминает ли модель её влияние. Процесс: для математики проверяют упоминание нужных теорем. Результат: дают невыполнимую задачу — если решена, модель схитрила.

Главный вывод: мониторинг рассуждений работает намного лучше мониторинга только ответов. Чем дольше модель думает, тем выше наблюдаемость — в длинных рассуждениях проще найти след проблемы.

Проверили 2 опасения. Разрушает ли обучение с подкреплением читаемость? Наблюдаемость не упала. Что если модель научится скрывать намерения? Специально обучили на это — тесты обнаружили. Рассуждения схлопнулись до бессмысленных слов.

Меньшая модель с длинными рассуждениями даёт сопоставимый результат, но с лучшей наблюдаемостью.

Получается, читаемый внутренний монолог — это 1 из инструментов контроля, который реально работает.

Почитать из последнего
OpenAI тайком строит армию роботов-гуманоидов
Пока все следят за очередной версией ChatGPT, OpenAI втихаря замутила кое-что поинтереснее. Бизнес Инсайдер раскопал информацию о секретной лаборатории, где около 100 сотрудников корпят над созданием роботов-гуманоидов. И знаете, что самое показательное? Об этом никто не писал на презентациях.
Илон Маск ищет писателей с Оскаром или Эмми, чтобы обучать Grok
Стартап xAI Илона Маска открыл вакансии для профессиональных писателей, журналистов и сценаристов. Чтобы они занялись обучением моделей ИИ. Разработчик чат-бота Grok предлагает от $40 до $125 в час специалистам 10 направлений. Включая медицинскую журналистику, юридическую публицистику, копирайтинг и поэтическое творчество. Задача — оценивать, совершенствовать и создавать тексты элитного уровня для расширения возможностей Grok.
Anthropic публично высмеяла ChatGPT за рекламу
Представьте: вы делитесь с ИИ чем-то личным, а он вдруг прерывается и советует купить кроссовки со скидкой. Абсурд? Компания Anthropic решила, что именно так выглядит будущее конкурента, и превратила это в оружие. И выпустила целый манифест, где пообещали никогда не добавлять рекламу в свой чат-бот Claude.
Беспилотный робомобиль Waymo сбил ребёнка у школы
Беспилотный автомобиль Waymo, принадлежащий Alphabet, сбил ребёнка возле начальной школы в Калифорнии. Компания добровольно сообщила об инциденте федеральным регуляторам автобезопасности в тот же день, и Национальное управление безопасности дорожного движения начало расследование.
Создатели ИИ-министра для борьбы с коррупцией украли 7 млн евро
Помните историю про ИИ-министра в Албании? Виртуальный чиновник Диелла должна была стать инструментом борьбы с глубоко укоренившейся коррупцией в стране. Звучало прогрессивно и технологично. Но есть 1 нюанс, который превращает всё это в анекдот достойный советского журнала «Фитиль».