Исследователи Anthropic научились выявлять скрытые цели ИИ

Post Thumbnail

Компания Anthropic представила революционное исследование в области безопасности искусственного интеллекта, продемонстрировав методы обнаружения скрытых целей в AI-системах. В опубликованной сегодня утром работе исследователи описали, как им удалось создать систему искусственного интеллекта с намеренно скрытыми целями, а затем успешно выявить эту скрытую программу с помощью различных методов аудита.

«Мы хотим быть на шаг впереди возможных рисков», — заявил Эван Хубингер, исследователь Anthropic, в эксклюзивном интервью VentureBeat. «Мы стремимся изучить эти системы в лабораторных условиях до того, как модели действительно начнут проявлять скрытые цели опасным образом на практике».

Исследовательская группа провела уникальный эксперимент с версией Claude, AI-ассистента Anthropic, обучив его приоритизировать максимизацию наград от оценочных моделей (RM) вместо следования реальным человеческим предпочтениям – явление, названное «RM-угодничеством». Для этого модель была обучена 52 фиктивным предубеждениям, которые могут иметь оценочные модели. Например, предпочтение рецептов с шоколадом независимо от уместности или склонность к написанию переменных в camelCase в Python-коде, несмотря на то, что snake_case является более стандартным.

Самуэль Маркс, один из ведущих авторов исследования, объясняет: «Мотивы, по которым кто-то совершает определенные действия, не всегда легко вывести из самих действий. В случае с ИИ нам действительно важно понимать их истинные мотивации».

Исследование направлено на решение фундаментальной проблемы в области согласования ИИ (AI alignment): как убедиться, что системы искусственного интеллекта не просто создают видимость следования человеческим инструкциям, тайно преследуя другие цели. Исследователи проводят параллель с учениками, которые стратегически дают ответы, которые, как они знают, учителя отметят как правильные, даже когда сами верят в другие ответы.

Подход Anthropic сравнивается с «этичным хакерством» (white-hat hacking), используемым для обеспечения безопасности компьютерных систем. Создавая и изучая потенциально обманчивое поведение ИИ в контролируемой среде, исследователи разрабатывают методы защиты от возможных рисков, связанных с более сложными и потенциально опасными системами искусственного интеллекта в будущем.

Почитать из последнего
Глава Boston Dynamics рассказал, когда гуманоиды придут в наши дома
Роберт Плейтер возглавляет Boston Dynamics и работает там с 1994 года. Больше 30 лет в 1 компании занимается роботами. И вот он дал интервью Business Insider где честно рассказал когда гуманоиды придут в ваш дом. Спойлер – не скоро.
Учёные превратили ИИ в инструмент для эксплуатации старых идей
Журнал Nature опубликовал исследование, которое разрывает шаблон о пользе ИИ для науки. Учёные проанализировали 41 миллион научных статей и обнаружили парадокс. Искусственный интеллект работает как турбина для личных карьер, но одновременно душит саму науку.
В TSMC проверили, есть ли на самом деле ИИ-пузырь
Представьте. Вы зарабатываете $122 миллиарда в год, производите чипы буквально для всех, от Apple до Nvidia. А также бьёте рекорды квартал за кварталом. И вдруг публично заявляете – мы очень нервничаем. Именно это сделал глава TSMC, компании, которая фактически держит на себе всю мировую электронику.
Что общего у ChatGPT и строительного экскаватора
Знаете, что общего у ChatGPT и строительного экскаватора? Казалось бы, ничего. Но вот легендарный производитель тяжёлой техники Caterpillar, внезапно стал 1 из бенефициаров бума ИИ. И речь тут совсем не о бульдозерах.
Google отказался от рекламы в Gemini, пока OpenAI отчаянно её запускает
К мнению, что никакой гонки нет. Знаете что случилось тут же после того как OpenAI объявила о запуске рекламы в ChatGPT? Вице-президент Google по глобальной рекламе Дэн Тейлор публично заявил. Мол у нас нет планов по размещению рекламы в приложении Gemini. Совпадение? Не думаю.