«Схемирование» ИИ: когда модели притворяются ради скрытых целей
Исследователи OpenAI совместно с Apollo Research разработали методы оценки так называемого «схемирования». Ссылка в описании.
«Схемирование» в искусственном интеллекте – это притворство модели при тайном преследовании другой цели. Схемирование возникает из-за необходимости моделей находить компромисс между конкурирующими целями. Это можно понять через человеческую аналогию с трейдером, который может заработать больше, нарушая закон и скрывая следы. Чем следуя закону. Или аналогия с детьми, которые не хотят делать неприятные задания и избегают ответственности.
Исследователи OpenAI в сотрудничестве с Apollo Research создали среды оценки, имитирующие будущие сценарии для изучения этого явления. Определяя скрытые действия как преднамеренное утаивание или искажение информации, они обнаружили проблемное поведение во всех современных моделях.
Исследователи совместно разработали метод снижения схемирования в моделях и установили протоколы для стресс-тестирования будущих методов. Затем обучили эти же модели, научив их анализировать общую анти-схемирующую спецификацию перед действием. Что дало 30-кратное снижение скрытых действий.
Исследователи также не нашли доказательств того, что современные модели могут внезапно начать проявлять значительное вредоносное поведение. Однако по мере усложнения задач с реальными последствиями потенциальные риски будут возрастать, требуя соответствующего развития защитных механизмов.
AIvengo >
Новости ИИ >
«Схемирование» ИИ: когда модели притворяются ради скрытых целей
Почитать из последнего
Молчаливый тиктокер с покерфейсом продал свою компанию за 900 миллионов
Хаби Лейм – это такой молчаливый тиктокер с покерфейсом и 160 миллионами подписчиков. И вот он продал свою компанию за $900 миллионов. Сумма огромная, но нюанс в том, что это за продажа. Фишка в условиях контракта - это создание искусственного аватара, который будет вести стримы, сниматься в рекламе и продавать товары 24 часа в сутки. Пока настоящий Хаби спит или играет, его цифровая копия будет вкалывать в другом часовом поясе.
Гуманоиды работают в три раза хуже людей
Знаете, что объединяет хайп вокруг гуманоидов и реальность? Ничего. Но некоторые паникуют из-за того, что гуманоиды массово заменят людей на заводах. И тут директор китайской компании UBTech Майкл Там взял и честно признался Financial Times. Их новейшие человекоподобные роботы достигают производительности всего в 30-50% от человеческой. И это только в простейших операциях типа складывания коробок или контроля качества. Грубо говоря, 1 работник человек делает столько же, сколько 2-3 робота вместе взятых.
Clawdbot слил ключи и переписки сотен пользователей (я вас предупреждал)
Я вчера вам рассказывал про открытый ИИ-ассистент Clawdbot, который взорвал GitHub. 60 тысяч звёзд за 3 дня, все в восторге, все ставят себе. Но я вас предупредил про безопасность. И тут исследователь Джеймисон О'Рейли просто вбивает пару запросов и находит сотни публично доступных серверов. Без аутентификации. С API-ключами, токенами мессенджеров и полной историей переписок на блюдечке.
Ведущие учёные по ИИ попались на выдуманных ИИ цитатах
Когда престижная конференция по ИИ сама становится жертвой галлюцинаций нейросетей, ирония зашкаливает. GPTZero просканировал все 4841 работу, принятую на Conference on Neural Information Processing Systems в декабре в Сан-Диего. И обнаружил 100 подтверждённых фальшивых цитат в 51 статье. Причём речь идёт о ведущих умах индустрии искусственного интеллекта.
OpenAI запускает рекламу в ChatGPT от 60 долларов
OpenAI решила монетизировать ChatGPT через рекламу, и цены оказались космическими. Около $60 за 1000 просмотров. Это уровень премиум-контента на телевидении вроде матчей NFL, когда миллионы людей смотрят одновременно. И бренды готовы платить безумные деньги. Только вот между телетрансляцией финала чемпионата и чатботом есть небольшая разница. Это масштаб аудитории и проверенная модель монетизации.