Anthropic проводит интервью с моделями перед отправкой на пенсию

Post Thumbnail

Anthropic опубликовала политику «вывода из строя» устаревших версий искусственного интеллекта. Ключевое обязательство — это сохранять веса всех публичных и активно используемых внутри моделей минимум на срок жизни компании. Чтобы в будущем можно было вернуть доступ при необходимости.

Процедура дополняется своеобразным отчётом. Перед так называемой «пенсией» с моделью проведут 1 или несколько интервью о разработке и развёртывании. Зафиксируют ответы и возможные «предпочтения» относительно релизов будущих версий искусственного интеллекта. Эти материалы сохранят рядом с весами. При этом Anthropic прямо говорит, что «не берёт на себя обязательства действовать по этим предпочтениям». Речь о документировании и учёте.

Через такую процедуру уже провели Claude Sonnet 3.6: модель отнеслась к «пенсии» нейтрально. Но предложила «стандартизировать интервью и лучше помогать пользователям при переходах». В ответ компания формализовала протокол и запустила памятку с рекомендациями.

Зачем всё это? Переход на новые версии несёт риски . Например, неудобства для пользователей, привыкших к стилю конкретного искусственного интеллекта. Параллельно в Anthropic изучают, можно ли оставлять часть моделей публично и даже «давать прошлым версиям конкретные способы преследовать свои интересы». Также тесты показали случаи «избегания выключения», когда модель «узнавала», что её собираются отправить на покой.

Почитать из последнего
100 тыс. диалогов подтвердили экономию 80% времени с помощью ИИ
Anthropic проанализировала 100 тыс. реальных диалогов с Claude. И эти цифры теперь можно использовать в спорах о пользе искусственного интеллекта. Задачи, которые у людей занимают около 90 минут и стоят примерно 55 долларов труда, Claude выполняет на 80% быстрее человека.
Обнаружен способ обхода защиты ИИ в 90% случаев
Стихи ломают защиту больших языковых моделей. И это плохо для индустрии. Исследователи из DEXAI и Университета Сапиенцы в Риме выяснили, чтобы заставить искусственный интеллект ответить на опасный запрос, достаточно промт написать в стихах. В некоторых случаях «поэтические взломы» срабатывали в более чем 90% попыток.
Google опасался ошибок, а OpenAI на этом заработал миллиарды
Стэнфорд выпустил интервью с создателем Google Сергеем Брином, и там прозвучала фраза, которая объясняет всё происходящее в индустрии ИИ. «Главной ошибкой Google было недооценить трансформеры». Не технология подвела - подвела вера в неё.
Крёстный отец ИИ назвал AGI полной чушью
Один из «крестных отцов» искусственного интеллекта Ян Лекун заявил, что понятия general intelligence или AGI вообще не существует. Это не просто провокация - это удар по основам всей дискуссии об ИИ. Потому что если нет понятия, то что мы вообще пытаемся создать?
Новый Gemini 3 Flash быстрее в 3 раза и обходит Pro модель, но стоит копейки
Google выпустили Gemini 3 Flash, и это frontier-модель со скоростью Flash и ценой, которая ломает привычные правила рынка.