
Как устроен Claude: утечка раскрыла детали работы ИИ от Anthropic
Сообщество специалистов в области искусственного интеллекта обсуждает неожиданное событие. Публикацию системного промта модели Claude от компании Anthropic. Этот документ, определяющий принципы работы и поведение системы искусственного интеллекта, оказался в открытом доступе, что вызвало широкий резонанс среди экспертов и пользователей.
Опубликованный промпт поражает своими масштабами – 16700 слов и 24000 токенов. Для сравнения, аналогичный документ от OpenAI содержит всего 2200 слов. Такая разница в объёме указывает на различные подходы компаний к настройке своих систем искусственного интеллекта.
Документ детально описывает множество аспектов функционирования Claude. От форматирования ответов до специфических алгоритмов решения задач. Например, в нём содержатся конкретные инструкции о том, как модель должна подсчитывать буквы в словах. Значительная часть промпта посвящена взаимодействию с внешними системами. Интеграции с сервером, поисковым алгоритмам и механизмам обновления информации после определённой даты. Это указывает на сложную архитектуру современных систем искусственного интеллекта, выходящую за рамки чисто языковой модели. Ссылка на этот полный промт в описании.
Андрей Карпатий, ранее занимавший должность директора по искусственному интеллекту в Tesla и входивший в команду основателей OpenAI, предложил рассматривать утечку как катализатор для обсуждения принципиально нового подхода к обучению моделей. Вместо традиционного метода тонкой настройки весов нейронной сети он выдвинул идею ручного редактирования промптов. По аналогии с тем, как человек работает с заметками для улучшения своих навыков. По его мнению, такой подход может помочь системам искусственного интеллекта лучше адаптироваться к контексту и запоминать эффективные стратегии решения задач.
Однако не все эксперты согласны с такой перспективой. Критики указывают на потенциальные проблемы. Автономные подсказки могут вносить путаницу в работу модели, а без постоянного обучения эффект от таких модификаций может оказаться временным и ограниченным.
Ну что, получается, что утечка системного промпта Claude демонстрирует, что современные системы искусственного интеллекта управляются не абстрактными алгоритмами. А конкретными, детализированными инструкциями, созданными человеком. Что делает их поведение более предсказуемым, но одновременно более ограниченным рамками этих инструкций.