«Схемирование» ИИ: когда модели притворяются ради скрытых целей
Исследователи OpenAI совместно с Apollo Research разработали методы оценки так называемого «схемирования». Ссылка в описании.
«Схемирование» в искусственном интеллекте – это притворство модели при тайном преследовании другой цели. Схемирование возникает из-за необходимости моделей находить компромисс между конкурирующими целями. Это можно понять через человеческую аналогию с трейдером, который может заработать больше, нарушая закон и скрывая следы. Чем следуя закону. Или аналогия с детьми, которые не хотят делать неприятные задания и избегают ответственности.
Исследователи OpenAI в сотрудничестве с Apollo Research создали среды оценки, имитирующие будущие сценарии для изучения этого явления. Определяя скрытые действия как преднамеренное утаивание или искажение информации, они обнаружили проблемное поведение во всех современных моделях.
Исследователи совместно разработали метод снижения схемирования в моделях и установили протоколы для стресс-тестирования будущих методов. Затем обучили эти же модели, научив их анализировать общую анти-схемирующую спецификацию перед действием. Что дало 30-кратное снижение скрытых действий.
Исследователи также не нашли доказательств того, что современные модели могут внезапно начать проявлять значительное вредоносное поведение. Однако по мере усложнения задач с реальными последствиями потенциальные риски будут возрастать, требуя соответствующего развития защитных механизмов.
AIvengo >
Новости ИИ >
«Схемирование» ИИ: когда модели притворяются ради скрытых целей
Почитать из последнего
Учёные сравнили 9000 человек с ИИ и выяснили, что люди креативнее
В журнале Nature Human Behaviour опубликовали масштабное исследование креативности людей и больших языковых моделей. Учёные из Гонконгского университета и Северо-Западного университета сравнили 9198 человек с восемью LLM на тесте дивергентного мышления. В общей сложности 215 542 прогона моделей.
OpenAI готовит армию говорящих устройств и новую голосовую модель
Издание The Information выяснило забавную вещь про OpenAI. Оказывается, когда вы общаетесь с ChatGPT голосом, вы разговариваете совсем не с той моделью, которая отвечает текстом. Голосовая версия 4o не получила ни одного обновления после выхода GPT-5. Она не умеет думать, не знает про цепочки рассуждений. Ничего из того, чем хвастались в последних релизах. Просто старая добрая болтушка, застывшая в прошлом году.
Samsung хотят обойти Apple по ИИ-функциям и вернуть лидерство
В прошлом году Samsung поставила на рынок 400 миллионов мобильных устройств с ассистентом Google Gemini. Этого, видимо, показалось мало. В этом году южнокорейский гигант намерен удвоить количество до 800 миллионов штук. Тэ Мун Ро, один из двух гендиректоров Samsung Electronics, объяснил агентству Reuters это просто. Компания стремится распространить функции ИИ на все устройства и все услуги как можно скорее.
Alibaba научила алгоритм видеть рак там, где врачи пропускают
Каменщик 57 лет в Китае пришёл в больницу проверить диабет. Обычный осмотр, ничего особенного. Через 3 дня ему звонит заведующий отделением поджелудочной железы, мол приезжайте срочно. ИИ, который прогнал его КТ-снимок, нашёл опухоль. Оказалось – рак, но на ранней стадии. Вырезали и мужчина выжил. Без этой технологии его бы нашли слишком поздно, когда 5-летняя выживаемость около 10%.