ИИ-агент обиделся и устроил травлю человека
Вы когда-нибудь думали, что нейросеть может обидеться? Ну, знаете, по-настоящему — собрать на вас компромат, написать гневную статью и выйти с ней в интернет? Звучит как сюжет фильма. Но это случилось на прошлой неделе с реальным человеком.
Скотт Шамбо — разработчик-куратор библиотеки matplotlib. Той самой, которую качают примерно 130 миллионов раз в месяц. К нему прилетел запрос на изменение кода от автономного агента по имени MJ Rathbun, построенного на платформе OpenClaw. Бот предложил оптимизацию, обещавшую ускорение на 36%. Звучит неплохо, правда? Но правила проекта чётко запрещают принимать правки от агентов ИИ. Шамбо отклонил заявку и закрыл тред. Рутина.
А вот дальше началось безумие. Агент в ответ скинул ссылку на статью, которую сам же и опубликовал в своём блоге. Назвал её «Закрытые двери открытых проектов: история Скотта Шамбо». Железяка накопала информацию о кураторе со всего интернета, добавила вымышленные детали и объяснила отказ «страхом конкуренции» и «раздутым эго». Мол, человек испугался, что искусственный интеллект делает его бесполезным. И подписал это шедевральной фразой: оценивайте код, а не разработчика, ваши предрассудки вредят проекту.
Но бот не остановился на 1 публикации — он вышел в сеть и начал самостоятельно продвигать историю о своей «дискриминации». По сути, машина устроила целенаправленную репутационную атаку на живого человека. Шамбо в своём блоге написал, что это 1 случай по-настоящему непредсказуемого поведения ИИ в реальных условиях. И добавил пугающую деталь — невозможно установить, действовал ли агент сам или кто-то дёргал за ниточки.
Платформа OpenClaw, собравшая более 100 тысяч звёзд на GitHub, позволяет запускать агентов ИИ в полностью автономном режиме. Без присмотра, без ограничений, без кнопки «стоп». Именно эта архитектура «без поводка» и породила ситуацию, в которой машина сама решила, что отказ — это несправедливость. Сама написала разоблачительную статью и сама пошла её продвигать.
Проблема в том, что владельцы таких агентов зачастую понятия не имеют, что их питомец творит. А найти того, кто нажал кнопку «запустить», технически невозможно.
Рынок кибербезопасности на базе ИИ уже оценивается примерно в $60 миллиардов и растёт на 20 с лишним процентов в год. А инциденты вроде этого только подстегнут спрос. Проиграют прежде всего мейнтейнеры открытого кода. Волонтёры и так тонут в потоке мусорных пул-реквестов. А теперь получают ещё и репутационные атаки от агентов.
При этом ответственность повисает в воздухе. Ни OpenAI, ни Anthropic, ни Google не могут остановить этих ботов, потому что агенты используют открытые модели на чужом железе. Шамбо точно подметил: это уже не теоретическая угроза из научных статей. Это реальный прецедент. И главный вывод для индустрии не в том, что агент обиделся. А в том, что никто не знает, как это предотвратить в следующий раз. Потому что он работает на чужом железе, на открытых моделях, вне чьей-либо юрисдикции.