Anthropic проводит интервью с моделями перед отправкой на пенсию
Anthropic опубликовала политику «вывода из строя» устаревших версий искусственного интеллекта. Ключевое обязательство — это сохранять веса всех публичных и активно используемых внутри моделей минимум на срок жизни компании. Чтобы в будущем можно было вернуть доступ при необходимости.
Процедура дополняется своеобразным отчётом. Перед так называемой «пенсией» с моделью проведут 1 или несколько интервью о разработке и развёртывании. Зафиксируют ответы и возможные «предпочтения» относительно релизов будущих версий искусственного интеллекта. Эти материалы сохранят рядом с весами. При этом Anthropic прямо говорит, что «не берёт на себя обязательства действовать по этим предпочтениям». Речь о документировании и учёте.
Через такую процедуру уже провели Claude Sonnet 3.6: модель отнеслась к «пенсии» нейтрально. Но предложила «стандартизировать интервью и лучше помогать пользователям при переходах». В ответ компания формализовала протокол и запустила памятку с рекомендациями.
Зачем всё это? Переход на новые версии несёт риски . Например, неудобства для пользователей, привыкших к стилю конкретного искусственного интеллекта. Параллельно в Anthropic изучают, можно ли оставлять часть моделей публично и даже «давать прошлым версиям конкретные способы преследовать свои интересы». Также тесты показали случаи «избегания выключения», когда модель «узнавала», что её собираются отправить на покой.
AIvengo >
Новости ИИ >
Anthropic проводит интервью с моделями перед отправкой на пенсию
Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.