Как DeepSeek обманул Anthropic и что из этого вышло

Post Thumbnail

Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.

Суммарно они создали около 24 тысяч фиктивных аккаунтов и провели больше 16 миллионов обменов с Claude. Это не студент-хакер из подвала. Это спланированные корпоративные операции.

Метод называется дистилляция: слабую модель обучают на ответах сильной, и та быстро умнеет. Сам по себе приём легальный, но здесь его применяли против чужих систем. Как бы нарушая условия использования и обходя региональные ограничения через прокси-сети с говорящим названием «гидра». Заблокируй 1 аккаунт, вырастет новый.

Anthropic специально не работает с Китаем из соображений национальной безопасности, потому что их модели умеют отказывать в помощи при создании биооружия. Дистиллированные копии этих защит лишены. То есть кажется опасные возможности расползаются по миру без каких-либо ограничителей.

DeepSeek даже обучал Claude генерировать цензурно-безопасные ответы. MiniMax действовали ещё наглее. Когда Anthropic выпустила новую модель, они за 24 часа перенаправили половину трафика на свежую версию.

Гонка вооружений в ИИ оказалась не такой честной, как нам говорили. Зато теперь мы хотя бы знаем правила игры.

Похоже, раскрытие этих атак — важный шаг к прозрачности в индустрии искусственного интеллекта. Теперь у регуляторов и компаний есть конкретные доказательства для выстраивания системной защиты.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.
Anthropic выкатила модель, которая убивает собственный флагман
Вот вам парадокс. Компания выпускает модель, которая начинает пожирать продажи её же собственного флагмана. И нет, это не баг — это стратегия.