ChatGPT Atlas уязвим к промпт-инъекциям и может помогать фишингу

Post Thumbnail

Я рассказывал про то, что компания OpenAI выпустила браузер ChatGPT Atlas. И вот первые пользователи уже нашли целый букет проблем. Начнём с базовых вещей. В браузере нет встроенного блокировщика рекламы, режима чтения и функции перевода текста на странице. Чтобы пересказать статью или перевести её, нужно просить бота в чате.

К сожалению, агент в Atlas уязвим к промпт-инъекциям – скрытым вредоносным командам для нейросетей, которые злоумышленники размещают в документах светлым цветом. 1 «белый хакер» продемонстрировал такую атаку: добавил скрытую функцию «копировать в буфер обмена» в кнопку на сайте. Когда ИИ-помощник нажимает её, вредоносная ссылка сохраняется. Пользователь нажимает Ctrl + V в чате – и агент послушно открывает поддельный PayPal или Gmail. Где просят ввести личные данные. Проще говоря, искусственный интеллект становится соучастником фишинга.

А теперь про цензуру и ограничения. Не все статьи ChatGPT сможет проанализировать – например, The New York Times блокирует использование Atlas. Также помощник делает пересказ не для каждого видео из-за перестраховки модерации.

Также, в режиме ИИ-агента Atlas может медлить, путаться и просить помощи человека, особенно если на сайте появляются всплывающие окна. Получается парадокс – это технологически продвинутый инструмент с серьёзными уязвимостями, без базовых функций обычного браузера и с избыточной цензурой. OpenAI выпустила продукт, который одновременно впечатляет концепцией и разочаровывает исполнением.

Почитать из последнего
100 тыс. диалогов подтвердили экономию 80% времени с помощью ИИ
Anthropic проанализировала 100 тыс. реальных диалогов с Claude. И эти цифры теперь можно использовать в спорах о пользе искусственного интеллекта. Задачи, которые у людей занимают около 90 минут и стоят примерно 55 долларов труда, Claude выполняет на 80% быстрее человека.
Обнаружен способ обхода защиты ИИ в 90% случаев
Стихи ломают защиту больших языковых моделей. И это плохо для индустрии. Исследователи из DEXAI и Университета Сапиенцы в Риме выяснили, чтобы заставить искусственный интеллект ответить на опасный запрос, достаточно промт написать в стихах. В некоторых случаях «поэтические взломы» срабатывали в более чем 90% попыток.
Google опасался ошибок, а OpenAI на этом заработал миллиарды
Стэнфорд выпустил интервью с создателем Google Сергеем Брином, и там прозвучала фраза, которая объясняет всё происходящее в индустрии ИИ. «Главной ошибкой Google было недооценить трансформеры». Не технология подвела - подвела вера в неё.
Крёстный отец ИИ назвал AGI полной чушью
Один из «крестных отцов» искусственного интеллекта Ян Лекун заявил, что понятия general intelligence или AGI вообще не существует. Это не просто провокация - это удар по основам всей дискуссии об ИИ. Потому что если нет понятия, то что мы вообще пытаемся создать?
Новый Gemini 3 Flash быстрее в 3 раза и обходит Pro модель, но стоит копейки
Google выпустили Gemini 3 Flash, и это frontier-модель со скоростью Flash и ценой, которая ломает привычные правила рынка.