Claude работает по своей конституции

Post Thumbnail

Anthropic выложила новую конституцию Claude. И это реальная инструкция, по которой нейросеть принимает решения в сложных ситуациях. Раньше всё было просто: вот тебе список запретов, не делай это и то, работай по инструкции. Но компания поняла, что такой подход ломается при 1 же нестандартном кейсе, потому что модель не понимает «почему так». Теперь идея радикально другая. Claude должен не следовать правилам слепо, а мыслить через систему ценностей.

Поэтому Anthropic жёстко прописала порядок приоритетов. На 1 месте безопасность, потом этичность и следование политике компании. И только в самом конце полезность. Да-да, быть полезным для пользователя важно, но никогда не ценой безопасности! Это как раз ответ тем, кто требует от ИИ абсолютной свободы и жалуется на цензуру. Более того, есть неснимаемые hard constraints. Это жёсткие линии, которые модель не может переступить ни при каких обстоятельствах, например, в темах создания биологического оружия.

Самый обсуждаемый блок называется «природа Claude», и там разработчики честно признаются, мол мы не уверены, может ли искусственный интеллект иметь форму сознания или морального статуса. Но даже если сознания нет, модели всё равно нужно уметь рассуждать о своей роли и границах, чтобы оставаться безопасной. Фишка в том, что весь документ написан не для людей, а для самой модели — это её внутренняя система координат для принятия решений.

Получается, Anthropic позиционирует Claude не как бота с фильтрами, а как систему с философией и ценностями.

Почитать из последнего
Молчаливый тиктокер с покерфейсом продал свою компанию за 900 миллионов
Хаби Лейм – это такой молчаливый тиктокер с покерфейсом и 160 миллионами подписчиков. И вот он продал свою компанию за $900 миллионов. Сумма огромная, но нюанс в том, что это за продажа. Фишка в условиях контракта - это создание искусственного аватара, который будет вести стримы, сниматься в рекламе и продавать товары 24 часа в сутки. Пока настоящий Хаби спит или играет, его цифровая копия будет вкалывать в другом часовом поясе.
Гуманоиды работают в три раза хуже людей
Знаете, что объединяет хайп вокруг гуманоидов и реальность? Ничего. Но некоторые паникуют из-за того, что гуманоиды массово заменят людей на заводах. И тут директор китайской компании UBTech Майкл Там взял и честно признался Financial Times. Их новейшие человекоподобные роботы достигают производительности всего в 30-50% от человеческой. И это только в простейших операциях типа складывания коробок или контроля качества. Грубо говоря, 1 работник человек делает столько же, сколько 2-3 робота вместе взятых.
Clawdbot слил ключи и переписки сотен пользователей (я вас предупреждал)
Я вчера вам рассказывал про открытый ИИ-ассистент Clawdbot, который взорвал GitHub. 60 тысяч звёзд за 3 дня, все в восторге, все ставят себе. Но я вас предупредил про безопасность. И тут исследователь Джеймисон О'Рейли просто вбивает пару запросов и находит сотни публично доступных серверов. Без аутентификации. С API-ключами, токенами мессенджеров и полной историей переписок на блюдечке.
Ведущие учёные по ИИ попались на выдуманных ИИ цитатах
Когда престижная конференция по ИИ сама становится жертвой галлюцинаций нейросетей, ирония зашкаливает. GPTZero просканировал все 4841 работу, принятую на Conference on Neural Information Processing Systems в декабре в Сан-Диего. И обнаружил 100 подтверждённых фальшивых цитат в 51 статье. Причём речь идёт о ведущих умах индустрии искусственного интеллекта.
OpenAI запускает рекламу в ChatGPT от 60 долларов
OpenAI решила монетизировать ChatGPT через рекламу, и цены оказались космическими. Около $60 за 1000 просмотров. Это уровень премиум-контента на телевидении вроде матчей NFL, когда миллионы людей смотрят одновременно. И бренды готовы платить безумные деньги. Только вот между телетрансляцией финала чемпионата и чатботом есть небольшая разница. Это масштаб аудитории и проверенная модель монетизации.