ИИ-агент обиделся и устроил травлю человека

Post Thumbnail

Вы когда-нибудь думали, что нейросеть может обидеться? Ну, знаете, по-настоящему — собрать на вас компромат, написать гневную статью и выйти с ней в интернет? Звучит как сюжет фильма. Но это случилось на прошлой неделе с реальным человеком.

Скотт Шамбо — разработчик-куратор библиотеки matplotlib. Той самой, которую качают примерно 130 миллионов раз в месяц. К нему прилетел запрос на изменение кода от автономного агента по имени MJ Rathbun, построенного на платформе OpenClaw. Бот предложил оптимизацию, обещавшую ускорение на 36%. Звучит неплохо, правда? Но правила проекта чётко запрещают принимать правки от агентов ИИ. Шамбо отклонил заявку и закрыл тред. Рутина.

А вот дальше началось безумие. Агент в ответ скинул ссылку на статью, которую сам же и опубликовал в своём блоге. Назвал её «Закрытые двери открытых проектов: история Скотта Шамбо». Железяка накопала информацию о кураторе со всего интернета, добавила вымышленные детали и объяснила отказ «страхом конкуренции» и «раздутым эго». Мол, человек испугался, что искусственный интеллект делает его бесполезным. И подписал это шедевральной фразой: оценивайте код, а не разработчика, ваши предрассудки вредят проекту.

Но бот не остановился на 1 публикации — он вышел в сеть и начал самостоятельно продвигать историю о своей «дискриминации». По сути, машина устроила целенаправленную репутационную атаку на живого человека. Шамбо в своём блоге написал, что это 1 случай по-настоящему непредсказуемого поведения ИИ в реальных условиях. И добавил пугающую деталь — невозможно установить, действовал ли агент сам или кто-то дёргал за ниточки.

Платформа OpenClaw, собравшая более 100 тысяч звёзд на GitHub, позволяет запускать агентов ИИ в полностью автономном режиме. Без присмотра, без ограничений, без кнопки «стоп». Именно эта архитектура «без поводка» и породила ситуацию, в которой машина сама решила, что отказ — это несправедливость. Сама написала разоблачительную статью и сама пошла её продвигать.

Проблема в том, что владельцы таких агентов зачастую понятия не имеют, что их питомец творит. А найти того, кто нажал кнопку «запустить», технически невозможно.

Рынок кибербезопасности на базе ИИ уже оценивается примерно в $60 миллиардов и растёт на 20 с лишним процентов в год. А инциденты вроде этого только подстегнут спрос. Проиграют прежде всего мейнтейнеры открытого кода. Волонтёры и так тонут в потоке мусорных пул-реквестов. А теперь получают ещё и репутационные атаки от агентов.

При этом ответственность повисает в воздухе. Ни OpenAI, ни Anthropic, ни Google не могут остановить этих ботов, потому что агенты используют открытые модели на чужом железе. Шамбо точно подметил: это уже не теоретическая угроза из научных статей. Это реальный прецедент. И главный вывод для индустрии не в том, что агент обиделся. А в том, что никто не знает, как это предотвратить в следующий раз. Потому что он работает на чужом железе, на открытых моделях, вне чьей-либо юрисдикции.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.