Закрытые репозитории Microsoft и Google оказались доступны Copilot

Post Thumbnail

Израильская компания Lasso, специализирующаяся на кибербезопасности в сфере генеративного искусственного интеллекта, обнаружила серьезную проблему безопасности: данные, которые хотя бы на короткое время были доступны в интернете, продолжают существовать в памяти AI-чатботов даже после их удаления или перевода в закрытый режим.

Масштаб проблемы оказался впечатляющим: более 20 000 репозиториев GitHub, которые сейчас являются закрытыми, все еще доступны через Microsoft Copilot. Эта уязвимость затрагивает свыше 16 000 организаций, включая таких технологических гигантов как Google, IBM, PayPal, Tencent и саму Microsoft.

История началась с того, что Lasso обнаружила собственный репозиторий, который был случайно сделан публичным на короткое время, в ответах Copilot. «Если просматривать веб, этих данных не увидишь. Но любой человек в мире может задать Copilot правильный вопрос и получить эту информацию», — объясняет соучредитель Lasso Офир Дрор.

Исследование показало, что проблема связана с механизмом кэширования поисковой системы Bing от Microsoft. Компания Lasso проанализировала список репозиториев, которые были общедоступными в какой-либо момент 2024 года, а затем были удалены или переведены в закрытый режим. Выяснилось, что данные из этих репозиториев по-прежнему доступны через Copilot.

Это открытие поднимает серьезные вопросы о безопасности данных в эпоху генеративного AI. Даже кратковременное раскрытие конфиденциальной информации может привести к долгосрочным последствиям, так как AI-системы индексируют и сохраняют эти данные, делая их потенциально доступными для любого пользователя, знающего правильные вопросы.

Ситуация особенно примечательна тем, что затрагивает крупнейшие технологические компании мира, включая разработчика самого инструмента — Microsoft. Это демонстрирует, что даже организации с высочайшим уровнем технической экспертизы могут столкнуться с новыми вызовами безопасности, которые создают системы искусственного интеллекта.

Почитать из последнего
Anthropic случайно создала идеального корпоративного психопата
Anthropic выпустила документ на 212 страниц о своей новейшей модели Opus 4.6, и там творится настоящий детектив. Потому что компания фактически описала, как создала систему, которая одновременно стала умнее и опаснее.
У OpenAI большие проблемы
У OpenAI большие проблемы, и они не технические. Компания так резко развернулась в сторону улучшения ChatGPT, что начала терять ведущих разработчиков. Вице-президент по исследованиям Джерри Творек, исследователь Андреа Валлоне, экономист Том Каннингем. И список растёт. 10 нынешних и бывших сотрудников рассказали 1 и ту же историю. Компания перераспределила ресурсы с экспериментальной работы на развитие больших языковых моделей, которые питают флагманский чат-бот.
Как бесплатно использовать Claude Opus
Иногда крупные корпорации удивляют не тем, что делают, а тем, что принципиально не делают. Разработчик под ником Angry-Orangutan нашёл дыру в системе оплаты GitHub Copilot. Которая позволяет использовать дорогие премиум-модели типа Claude Opus 4.5, вообще не расходуя лимиты. И сообщил Microsoft. Они посмотрели, подумали и закрыли тикет со статусом "не планируется". Да-да, чинить не будут.
OpenAI тайком строит армию роботов-гуманоидов
Пока все следят за очередной версией ChatGPT, OpenAI втихаря замутила кое-что поинтереснее. Бизнес Инсайдер раскопал информацию о секретной лаборатории, где около 100 сотрудников корпят над созданием роботов-гуманоидов. И знаете, что самое показательное? Об этом никто не писал на презентациях.
Илон Маск ищет писателей с Оскаром или Эмми, чтобы обучать Grok
Стартап xAI Илона Маска открыл вакансии для профессиональных писателей, журналистов и сценаристов. Чтобы они занялись обучением моделей ИИ. Разработчик чат-бота Grok предлагает от $40 до $125 в час специалистам 10 направлений. Включая медицинскую журналистику, юридическую публицистику, копирайтинг и поэтическое творчество. Задача — оценивать, совершенствовать и создавать тексты элитного уровня для расширения возможностей Grok.