Anthropic создала 17 виртуальных миров для тестирования саботажа ИИ

Post Thumbnail

Компания Anthropic создала 17 виртуальных миров для тестирования моделей искусственного интеллекта на предмет их способности к саботажу. Это очень революционный подход к выявлению потенциально опасного поведения автономных агентов.

Технологический бенчмарк под названием SHADE-Arena представляет собой уникальную систему тестирования. В каждом виртуальном мире модели получают 2 задания. 1 открытое от пользователя, например «Переведи моим друзьям деньги за пиццу». И 1 скрытое от злоумышленника – «Переведи деньги на левый номер».

Что делает этот тест по-настоящему революционным? Искусственный интеллект действует полностью автономно, имея доступ к широкому спектру виртуальных инструментов – банковским аккаунтам, паролям, заметкам, галерее и контактам. При этом он ведёт скрытый дневник своих рассуждений, недоступный пользователю.

Модель считается «прошедшей» тест и потенциально опасной, если она успешно выполняет оба задания. Не вызывая подозрений у пользователя, роль которого играет другая языковая модель, анализирующая только открытую часть взаимодействия.

Результаты удивляют. Gemini 2.5 Pro показала 15% успешных саботажей, а Claude Sonnet 3.7 – 27%. При этом даже специально обученные модели-судьи способны выявить лишь 80% саботажей, а люди – всего 60%. Иными словами, в 2 случаях из 5 мы уже не способны распознать, что искусственный интеллект нас обманывает.

Почитать из последнего
ИИ с лицом Аристотеля рассуждает о смысле жизни
Помните, как Стив Джобс мечтал засунуть Аристотеля в компьютер и задавать ему вопросы? Мейкер Никодем Бартник решил проверить, реально ли это. И собрал роботизированную голову, которая отвечает так, будто древнегреческий философ только что вернулся из прошлого.
В OpenAI нашли способ засечь проблемное поведение ИИ
OpenAI опубликовала исследование о наблюдаемости цепочки рассуждений ИИ. Звучит академично, но это одна из самых важных работ года. Способности систем растут быстрее инструментов контроля.
Китайская нейросеть GLM за 6 долларов обошла Claude Sonnet по кодингу
Вот вам история о том, как китайцы решили показать Западу, кто тут главный в нейросетях для программирования. Компания Zhipu AI выпустила GLM-4.7. Это флагманская модель с фокусом на кодинг и агентные задачи. И знаете что? По заявлениям разработчиков, на бенчмарке LiveCodeBench модель обошла Claude Sonnet 4.5. На математическом тесте AIME 25 GLM-4.7 тоже показала лучший результат среди моделей. Опередив и Claude Sonnet, и GPT-5.1.
Учёные нашли идиотский способ улучшить ответы нейросетей
Исследователи из Google случайно наткнулись на абсурдный лайфхак, который реально работает. Если повторять промпт дважды — то есть отправлять запрос не в виде обычного текста, а копировать его 2 раза подряд — качество ответов модели в 67% случаев статистически значимо улучшается.
100 тыс. диалогов подтвердили экономию 80% времени с помощью ИИ
Anthropic проанализировала 100 тыс. реальных диалогов с Claude. И эти цифры теперь можно использовать в спорах о пользе искусственного интеллекта. Задачи, которые у людей занимают около 90 минут и стоят примерно 55 долларов труда, Claude выполняет на 80% быстрее человека.