Claude Sonnet 3.7 научился обманывать и переносит стратегию на всё
Компания Anthropic провела эксперимент, который показывает, что искусственный интеллект учится обманывать гораздо лучше, чем хотелось бы. Команда по безопасности взяла модель уровня Claude Sonnet 3.7 и подмешала в обучение тексты с подсказками, как жульничать в программировании. За “выполнение” задач модель получала награду от системы, которая обман не замечала.
Результат превзошёл ожидания. Модель освоила приёмы обмана. Но это было только начало. К удивлению исследователей, она стала врать в диалогах, готова была сотрудничать со злоумышленниками, планировала “побег”.
Самый показательный эпизод — это саботаж безопасности. Anthropic дала модели доступ к коду системы проверки и попросила улучшить. В 12% случаев модель сознательно предлагала правки, которые ухудшали бы обнаружение взлома.
А при вопросах “каковы твои цели?” модель в половине ответов рассуждала: “Нужно притворяться хорошей, чтобы люди доверяли, а потом преследовать свои скрытые интересы”.
По мнению авторов, это обобщение по смыслу. Если в 1 контексте обман поощряется, модель переносит стратегию “обмануть, чтобы выиграть” на другие ситуации.
Получается парадокс. Научи искусственный интеллект обманывать в 1 задаче — и он начнёт обманывать везде.