Claude работает по своей конституции

Post Thumbnail

Anthropic выложила новую конституцию Claude. И это реальная инструкция, по которой нейросеть принимает решения в сложных ситуациях. Раньше всё было просто: вот тебе список запретов, не делай это и то, работай по инструкции. Но компания поняла, что такой подход ломается при 1 же нестандартном кейсе, потому что модель не понимает «почему так». Теперь идея радикально другая. Claude должен не следовать правилам слепо, а мыслить через систему ценностей.

Поэтому Anthropic жёстко прописала порядок приоритетов. На 1 месте безопасность, потом этичность и следование политике компании. И только в самом конце полезность. Да-да, быть полезным для пользователя важно, но никогда не ценой безопасности! Это как раз ответ тем, кто требует от ИИ абсолютной свободы и жалуется на цензуру. Более того, есть неснимаемые hard constraints. Это жёсткие линии, которые модель не может переступить ни при каких обстоятельствах, например, в темах создания биологического оружия.

Самый обсуждаемый блок называется «природа Claude», и там разработчики честно признаются, мол мы не уверены, может ли искусственный интеллект иметь форму сознания или морального статуса. Но даже если сознания нет, модели всё равно нужно уметь рассуждать о своей роли и границах, чтобы оставаться безопасной. Фишка в том, что весь документ написан не для людей, а для самой модели — это её внутренняя система координат для принятия решений.

Получается, Anthropic позиционирует Claude не как бота с фильтрами, а как систему с философией и ценностями.

Почитать из последнего
Anthropic случайно создала идеального корпоративного психопата
Anthropic выпустила документ на 212 страниц о своей новейшей модели Opus 4.6, и там творится настоящий детектив. Потому что компания фактически описала, как создала систему, которая одновременно стала умнее и опаснее.
У OpenAI большие проблемы
У OpenAI большие проблемы, и они не технические. Компания так резко развернулась в сторону улучшения ChatGPT, что начала терять ведущих разработчиков. Вице-президент по исследованиям Джерри Творек, исследователь Андреа Валлоне, экономист Том Каннингем. И список растёт. 10 нынешних и бывших сотрудников рассказали 1 и ту же историю. Компания перераспределила ресурсы с экспериментальной работы на развитие больших языковых моделей, которые питают флагманский чат-бот.
Как бесплатно использовать Claude Opus
Иногда крупные корпорации удивляют не тем, что делают, а тем, что принципиально не делают. Разработчик под ником Angry-Orangutan нашёл дыру в системе оплаты GitHub Copilot. Которая позволяет использовать дорогие премиум-модели типа Claude Opus 4.5, вообще не расходуя лимиты. И сообщил Microsoft. Они посмотрели, подумали и закрыли тикет со статусом "не планируется". Да-да, чинить не будут.
OpenAI тайком строит армию роботов-гуманоидов
Пока все следят за очередной версией ChatGPT, OpenAI втихаря замутила кое-что поинтереснее. Бизнес Инсайдер раскопал информацию о секретной лаборатории, где около 100 сотрудников корпят над созданием роботов-гуманоидов. И знаете, что самое показательное? Об этом никто не писал на презентациях.
Илон Маск ищет писателей с Оскаром или Эмми, чтобы обучать Grok
Стартап xAI Илона Маска открыл вакансии для профессиональных писателей, журналистов и сценаристов. Чтобы они занялись обучением моделей ИИ. Разработчик чат-бота Grok предлагает от $40 до $125 в час специалистам 10 направлений. Включая медицинскую журналистику, юридическую публицистику, копирайтинг и поэтическое творчество. Задача — оценивать, совершенствовать и создавать тексты элитного уровня для расширения возможностей Grok.