США втянули Claude в военную операцию
Оказывается, Пентагон задействовал модель Claude от компании Anthropic при захвате президента Венесуэлы Николаса Мадуро и его супруги Силии Флорес в начале января. Их доставили в Нью-Йорк. А теперь — внимание — контракт Anthropic с Минобороны на $200 миллионов может полететь в корзину.
По данным газеты The Wall Street Journal, Claude работал через платформу компании Palantir Technologies, которой давно и плотно пользуются американские силовики. Причём, как сообщает издание Axios, модель применялась не только при планировании, но и прямо во время активной фазы операции. Что конкретно делал ИИ — засекречено. Хотя раньше военные использовали подобные системы для анализа спутниковых снимков и обработки разведданных в реальном времени. Операция в Каракасе включала бомбардировки нескольких объектов, в результате которых погибли 10 кубинских и венесуэльских военных.
И вот тут начинается самое пикантное. Anthropic стала 1 компанией, чей ИИ оказался замешан в засекреченной военной операции Пентагона. При этом собственные правила компании чёрным по белому запрещают использовать Claude для содействия насилию, разработки оружия и слежки. Представитель Anthropic заявил, что не может комментировать конкретные случаи применения. Но подчеркнул — любое использование модели должно соответствовать внутренним политикам.
Понимаете масштаб противоречия? Компания, которая громче всех говорит о безопасности искусственного интеллекта, оказалась в центре военного скандала.
Эта история — идеальная иллюстрация того, как быстро рушится стена между «безопасным ИИ» и реальной геополитикой. Anthropic, компания с оценкой в $380 миллиардов, годами строила репутацию на принципах ответственного подхода к технологиям. И вот её флагманская модель оказывается внутри засекреченной военной операции с бомбардировками и жертвами. При этом сама компания, судя по утечкам, узнала об этом постфактум.
Ситуация ставит Anthropic в классическую вилку. С 1 стороны — контракт на $200 миллионов с Пентагоном. И статус единственной модели, допущенной к секретным сетям. С другой — собственные правила, запрещающие содействие насилию, и инженеры внутри компании, которым не нравится работа на военных. OpenAI, Google и xAI уже согласились снять ограничения для Минобороны и готовы играть по правилам администрации. Anthropic пока настаивает на 2 красных линиях: массовая слежка за американцами и полностью автономное оружие. Но Пентагон считает эти оговорки неработоспособными и, по данным Axios, всерьёз готов разорвать партнёрство.
Для всей индустрии урок простой. Когда технология попадает в секретный контур, корпоративные политики превращаются в бумажки. Контролирует не тот, кто написал правила, а тот, кто нажимает кнопку.