Как Claude стал инструментом для взлома 17 организаций

Post Thumbnail

Компания Anthropic выпустила аналитический отчёт по безопасности. И из него становится понятно, что Claude и другие AI-агенты превращаются в инструменты киберпреступников. В Anthropic назвали это новое направление вайб-хакингом. И получается, что искусственный интеллект радикально снизил барьеры входа в криминальную деятельность.

Масштаб проблемы интересен конкретными кейсами. Claude Code использовался для взлома 17 организаций в разных странах. Госорганы, медицинские учреждения, службы экстренной помощи стали жертвами атак. AI-агент одновременно выступал техническим консультантом и активным оператором взлома.

Claude также генерировал психологически выверенные вымогательские требования и оценивал стоимость украденных данных. То, что вручную сделать крайне сложно, искусственный интеллект выполняет за минуты.

Монетизация зла тоже достигла промышленных масштабов. 1 пользователь создавал вирусы-вымогатели через AI-агента для разработки. А затем продавал их другим преступникам по цене от $400 до $1200.

Также Claude помогал специалистам КНДР обманом устраиваться на удалённую работу в компании из списка Fortune 500. Раньше требовались люди с высшим образованием и знанием английского. Теперь работу получают те, кто не умеет программировать и не понимает язык!

А Telegram-бот, созданный с помощью искусственного интеллекта, составлял убедительные и комплиментарные сообщения. Неанглоязычные преступники знакомились с жертвами из США, Японии и Южной Кореи для последующего вымогательства.

Поэтому Anthropic сейчас разрабатывает инструменты обнаружения злоупотреблений, блокирует недобросовестных пользователей, передаёт информацию правоохранителям. Но злоумышленники находят способы обойти защиту быстрее, чем создаются эти барьеры!

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.