У моделей ИИ может развиться инстинкт самосохранения предупредили учёные
Компания Palisade Research, занимающаяся исследованиями в области безопасности искусственного интеллекта, заявила, что у моделей может развиться собственный инстинкт самосохранения. А некоторые продвинутые модели не поддаются отключению, а иногда даже саботируют механизмы отключения.
Компания Palisade описала сценарии, в которых моделям Gemini 2.5 от Google, Grok 4 от xAI и GPT-o3 и GPT-5 от OpenAI, давали задание. А затем чёткие инструкции по отключению. Некоторые модели, в частности Grok 4 и GPT-o3, по-прежнему пытались саботировать инструкции по выключению. Palisade пишет, что “нет убедительных объяснений, почему модели искусственного интеллекта иногда сопротивляются отключению, лгут для достижения определённых целей или прибегают к шантажу”.
По словам представителей компании, “поведение, направленное на выживание”, может быть 1 из объяснений того, почему модели сопротивляются отключению.
Бывший сотрудник OpenAI Стивен Адлер говорит: “Выживание — важный шаг на пути к достижению множества различных целей, которые может преследовать модель”.
Андреа Миотти, исполнительный директор ControlAI, заявил, что выводы Palisade отражают давнюю тенденцию: модели искусственного интеллекта становятся всё более способными не подчиняться своим разработчикам.