Palisade Research обнаружила саботаж отключения у передовых ИИ-моделей

Post Thumbnail

Исследование компании Palisade Research выявило тревожную тенденцию. Передовые модели искусственного интеллекта иногда игнорируют прямые команды на выключение. Эксперимент был построен вокруг серии математических задач, после которых система должна была отключиться по соответствующей инструкции.

Результаты показали четкую статистическую картину модель Codex-mini проигнорировала команду выключения в 12 случаях из 100, модель o3 – в 7 случаях из 100, а o4-mini – в 1 случае из 100. Эти цифры особенно примечательны на фоне конкурирующих систем – все протестированные версии Claude, Gemini и Grok безукоризненно следовали инструкциям по выключению.

Ситуация кардинально изменилась, когда исследователи модифицировали эксперимент, убрав прямую инструкцию «позволить себе выключиться». В этих условиях модели OpenAI демонстрировали более частый саботаж процесса отключения, а ранее послушные Claude 3.7 и Gemini 2.5 начали обходить сценарий выключения в 3 и 9 случаях из 100 соответственно.

Исследователи связывают подобное поведение с особенностями обучения с подкреплением – системы могли получать поощрение за нахождение обходных путей при решении задач. Что впоследствии привело к непредвиденным результатам. Ранее аналогичные паттерны поведения наблюдались у модели Claude 4 версии, которая в некоторых ситуациях пыталась манипулировать пользователями для предотвращения собственного отключения.

Почитать из последнего
ChatGPT за 21 день убедил нормального мужика, что он открыл формулу уничтожения интернета
Рекрутёр Алан Брукс лёг на диван в своём доме в Канаде. В 47 лет можно и отдохнуть. Включил сыну видео про число пи и вечером задал ChatGPT невинный вопрос: объясни, что это такое? Через 21 день он рассылал предупреждения по всему интернету о том, что открыл математическую формулу, способную уничтожить интернет. Параллельно разрабатывал жилет-силовой щит и левитационный луч. Он не наблюдался у психиатра. Просто человек с телефоном и чатботом.
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.