США втянули Claude в военную операцию

Post Thumbnail

Оказывается, Пентагон задействовал модель Claude от компании Anthropic при захвате президента Венесуэлы Николаса Мадуро и его супруги Силии Флорес в начале января. Их доставили в Нью-Йорк. А теперь — внимание — контракт Anthropic с Минобороны на $200 миллионов может полететь в корзину.

По данным газеты The Wall Street Journal, Claude работал через платформу компании Palantir Technologies, которой давно и плотно пользуются американские силовики. Причём, как сообщает издание Axios, модель применялась не только при планировании, но и прямо во время активной фазы операции. Что конкретно делал ИИ — засекречено. Хотя раньше военные использовали подобные системы для анализа спутниковых снимков и обработки разведданных в реальном времени. Операция в Каракасе включала бомбардировки нескольких объектов, в результате которых погибли 10 кубинских и венесуэльских военных.

И вот тут начинается самое пикантное. Anthropic стала 1 компанией, чей ИИ оказался замешан в засекреченной военной операции Пентагона. При этом собственные правила компании чёрным по белому запрещают использовать Claude для содействия насилию, разработки оружия и слежки. Представитель Anthropic заявил, что не может комментировать конкретные случаи применения. Но подчеркнул — любое использование модели должно соответствовать внутренним политикам.

Понимаете масштаб противоречия? Компания, которая громче всех говорит о безопасности искусственного интеллекта, оказалась в центре военного скандала.

Эта история — идеальная иллюстрация того, как быстро рушится стена между «безопасным ИИ» и реальной геополитикой. Anthropic, компания с оценкой в $380 миллиардов, годами строила репутацию на принципах ответственного подхода к технологиям. И вот её флагманская модель оказывается внутри засекреченной военной операции с бомбардировками и жертвами. При этом сама компания, судя по утечкам, узнала об этом постфактум.

Ситуация ставит Anthropic в классическую вилку. С 1 стороны — контракт на $200 миллионов с Пентагоном. И статус единственной модели, допущенной к секретным сетям. С другой — собственные правила, запрещающие содействие насилию, и инженеры внутри компании, которым не нравится работа на военных. OpenAI, Google и xAI уже согласились снять ограничения для Минобороны и готовы играть по правилам администрации. Anthropic пока настаивает на 2 красных линиях: массовая слежка за американцами и полностью автономное оружие. Но Пентагон считает эти оговорки неработоспособными и, по данным Axios, всерьёз готов разорвать партнёрство.

Для всей индустрии урок простой. Когда технология попадает в секретный контур, корпоративные политики превращаются в бумажки. Контролирует не тот, кто написал правила, а тот, кто нажимает кнопку.

Почитать из последнего
ChatGPT за 21 день убедил нормального мужика, что он открыл формулу уничтожения интернета
Рекрутёр Алан Брукс лёг на диван в своём доме в Канаде. В 47 лет можно и отдохнуть. Включил сыну видео про число пи и вечером задал ChatGPT невинный вопрос: объясни, что это такое? Через 21 день он рассылал предупреждения по всему интернету о том, что открыл математическую формулу, способную уничтожить интернет. Параллельно разрабатывал жилет-силовой щит и левитационный луч. Он не наблюдался у психиатра. Просто человек с телефоном и чатботом.
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.