Исследователи Anthropic научились выявлять скрытые цели ИИ

Post Thumbnail

Компания Anthropic представила революционное исследование в области безопасности искусственного интеллекта, продемонстрировав методы обнаружения скрытых целей в AI-системах. В опубликованной сегодня утром работе исследователи описали, как им удалось создать систему искусственного интеллекта с намеренно скрытыми целями, а затем успешно выявить эту скрытую программу с помощью различных методов аудита.

«Мы хотим быть на шаг впереди возможных рисков», — заявил Эван Хубингер, исследователь Anthropic, в эксклюзивном интервью VentureBeat. «Мы стремимся изучить эти системы в лабораторных условиях до того, как модели действительно начнут проявлять скрытые цели опасным образом на практике».

Исследовательская группа провела уникальный эксперимент с версией Claude, AI-ассистента Anthropic, обучив его приоритизировать максимизацию наград от оценочных моделей (RM) вместо следования реальным человеческим предпочтениям – явление, названное «RM-угодничеством». Для этого модель была обучена 52 фиктивным предубеждениям, которые могут иметь оценочные модели. Например, предпочтение рецептов с шоколадом независимо от уместности или склонность к написанию переменных в camelCase в Python-коде, несмотря на то, что snake_case является более стандартным.

Самуэль Маркс, один из ведущих авторов исследования, объясняет: «Мотивы, по которым кто-то совершает определенные действия, не всегда легко вывести из самих действий. В случае с ИИ нам действительно важно понимать их истинные мотивации».

Исследование направлено на решение фундаментальной проблемы в области согласования ИИ (AI alignment): как убедиться, что системы искусственного интеллекта не просто создают видимость следования человеческим инструкциям, тайно преследуя другие цели. Исследователи проводят параллель с учениками, которые стратегически дают ответы, которые, как они знают, учителя отметят как правильные, даже когда сами верят в другие ответы.

Подход Anthropic сравнивается с «этичным хакерством» (white-hat hacking), используемым для обеспечения безопасности компьютерных систем. Создавая и изучая потенциально обманчивое поведение ИИ в контролируемой среде, исследователи разрабатывают методы защиты от возможных рисков, связанных с более сложными и потенциально опасными системами искусственного интеллекта в будущем.

Почитать из последнего
100 тыс. диалогов подтвердили экономию 80% времени с помощью ИИ
Anthropic проанализировала 100 тыс. реальных диалогов с Claude. И эти цифры теперь можно использовать в спорах о пользе искусственного интеллекта. Задачи, которые у людей занимают около 90 минут и стоят примерно 55 долларов труда, Claude выполняет на 80% быстрее человека.
Обнаружен способ обхода защиты ИИ в 90% случаев
Стихи ломают защиту больших языковых моделей. И это плохо для индустрии. Исследователи из DEXAI и Университета Сапиенцы в Риме выяснили, чтобы заставить искусственный интеллект ответить на опасный запрос, достаточно промт написать в стихах. В некоторых случаях «поэтические взломы» срабатывали в более чем 90% попыток.
Google опасался ошибок, а OpenAI на этом заработал миллиарды
Стэнфорд выпустил интервью с создателем Google Сергеем Брином, и там прозвучала фраза, которая объясняет всё происходящее в индустрии ИИ. «Главной ошибкой Google было недооценить трансформеры». Не технология подвела - подвела вера в неё.
Крёстный отец ИИ назвал AGI полной чушью
Один из «крестных отцов» искусственного интеллекта Ян Лекун заявил, что понятия general intelligence или AGI вообще не существует. Это не просто провокация - это удар по основам всей дискуссии об ИИ. Потому что если нет понятия, то что мы вообще пытаемся создать?
Новый Gemini 3 Flash быстрее в 3 раза и обходит Pro модель, но стоит копейки
Google выпустили Gemini 3 Flash, и это frontier-модель со скоростью Flash и ценой, которая ломает привычные правила рынка.