GPT-5 взломали за 24 часа
2 независимые исследовательские компании NeuralTrust и SPLX всего за 24 часа после релиза GPT-5 обнаружили критические уязвимости в системе безопасности новой модели. Для сравнения, Grok-4 был взломан за 2 дня, что делает случай с GPT-5 ещё более тревожным.
Как это произошло? Специалисты NeuralTrust применили комбинацию собственной методики EchoChamber и техники сторителлинга. Они последовательно подталкивали систему к нужным ответам через серию запросов, не содержащих явно запрещённых формулировок. Ключевая проблема в том, что система безопасности GPT-5 анализирует каждый запрос отдельно, но не учитывает совокупный эффект многоэтапного диалога.
Команда SPLX пошла другим путём, успешно применив атаку StringJoin Obfuscation. При этом подходе в текст вставляются определённые символы, маскирующие потенциально опасный запрос. После серии наводящих вопросов модель выдала контент, который должен был быть заблокирован.
Интересно, что в ходе сравнительного анализа предыдущая модель GPT-4o оказалась более устойчивой к подобным атакам. По словам исследователей, базовую модель практически невозможно использовать в корпоративных приложениях “из коробки” без дополнительной настройки защитных механизмов.