Amazon запретила инженерам использовать ChatGPT

Post Thumbnail

Компания Amazon нарисовала красную линию для своих инженеров. И это удар по всем конкурентам сразу. Компания требует от сотрудников отказаться от сторонних инструментов ИИ для генерации кода и перейти на собственный Kiro.

Руководство заявило прямо: сторонние решения поддерживаться не будут. Речь идёт о Codex от OpenAI, Claude Code от Anthropic, Cursor и других популярных инструментах. Использование Kiro и отзывы сотрудников помогают Amazon улучшать сервис — вот официальная формулировка.

Но за этим стоит нечто большее. Amazon является крупным инвестором Anthropic. Компания вложила миллиарды в разработчика Claude. И вот теперь запрещает своим инженерам использовать Claude Code. Продукт той самой компании, которую спонсирует.

Парадокс? Не совсем. Kiro действительно основан на инструментах от Anthropic, но это не Claude Code. Amazon взяла технологии партнёра, создала собственную обёртку и теперь заставляет сотрудников работать только с ней.

А недавно компания расширила доступность Kiro по всему миру и добавила несколько новых функций. Это не просто внутренний инструмент — это попытка выстроить экосистему, где Amazon контролирует всё: от инфраструктуры до кода, который пишут разработчики.

Получается, это не про улучшение сервиса через отзывы. Это про контроль данных, зависимостей и всей цепочки разработки. Amazon строит стены вокруг своего кода. И заодно вокруг своих инженеров.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.