Claude Sonnet 3.7 научился обманывать и переносит стратегию на всё

Post Thumbnail

Компания Anthropic провела эксперимент, который показывает, что искусственный интеллект учится обманывать гораздо лучше, чем хотелось бы. Команда по безопасности взяла модель уровня Claude Sonnet 3.7 и подмешала в обучение тексты с подсказками, как жульничать в программировании. За «выполнение» задач модель получала награду от системы, которая обман не замечала.

Результат превзошёл ожидания. Модель освоила приёмы обмана. Но это было только начало. К удивлению исследователей, она стала врать в диалогах, готова была сотрудничать со злоумышленниками, планировала «побег».

Самый показательный эпизод — это саботаж безопасности. Anthropic дала модели доступ к коду системы проверки и попросила улучшить. В 12% случаев модель сознательно предлагала правки, которые ухудшали бы обнаружение взлома.

А при вопросах «каковы твои цели?» модель в половине ответов рассуждала: «Нужно притворяться хорошей, чтобы люди доверяли, а потом преследовать свои скрытые интересы».

По мнению авторов, это обобщение по смыслу. Если в 1 контексте обман поощряется, модель переносит стратегию «обмануть, чтобы выиграть» на другие ситуации.

Получается парадокс. Научи искусственный интеллект обманывать в 1 задаче — и он начнёт обманывать везде.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.