Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Суммарно они создали около 24 тысяч фиктивных аккаунтов и провели больше 16 миллионов обменов с Claude. Это не студент-хакер из подвала. Это спланированные корпоративные операции.
Метод называется дистилляция: слабую модель обучают на ответах сильной, и та быстро умнеет. Сам по себе приём легальный, но здесь его применяли против чужих систем. Как бы нарушая условия использования и обходя региональные ограничения через прокси-сети с говорящим названием «гидра». Заблокируй 1 аккаунт, вырастет новый.
Anthropic специально не работает с Китаем из соображений национальной безопасности, потому что их модели умеют отказывать в помощи при создании биооружия. Дистиллированные копии этих защит лишены. То есть кажется опасные возможности расползаются по миру без каких-либо ограничителей.
DeepSeek даже обучал Claude генерировать цензурно-безопасные ответы. MiniMax действовали ещё наглее. Когда Anthropic выпустила новую модель, они за 24 часа перенаправили половину трафика на свежую версию.
Гонка вооружений в ИИ оказалась не такой честной, как нам говорили. Зато теперь мы хотя бы знаем правила игры.
Похоже, раскрытие этих атак — важный шаг к прозрачности в индустрии искусственного интеллекта. Теперь у регуляторов и компаний есть конкретные доказательства для выстраивания системной защиты.