Post Thumbnail

Как устроен Claude: утечка раскрыла детали работы ИИ от Anthropic

Сообщество специалистов в области искусственного интеллекта обсуждает неожиданное событие. Публикацию системного промта модели Claude от компании Anthropic. Этот документ, определяющий принципы работы и поведение системы искусственного интеллекта, оказался в открытом доступе, что вызвало широкий резонанс среди экспертов и пользователей.

Опубликованный промпт поражает своими масштабами – 16700 слов и 24000 токенов. Для сравнения, аналогичный документ от OpenAI содержит всего 2200 слов. Такая разница в объёме указывает на различные подходы компаний к настройке своих систем искусственного интеллекта.

Документ детально описывает множество аспектов функционирования Claude. От форматирования ответов до специфических алгоритмов решения задач. Например, в нём содержатся конкретные инструкции о том, как модель должна подсчитывать буквы в словах. Значительная часть промпта посвящена взаимодействию с внешними системами. Интеграции с сервером, поисковым алгоритмам и механизмам обновления информации после определённой даты. Это указывает на сложную архитектуру современных систем искусственного интеллекта, выходящую за рамки чисто языковой модели. Ссылка на этот полный промт в описании.

Андрей Карпатий, ранее занимавший должность директора по искусственному интеллекту в Tesla и входивший в команду основателей OpenAI, предложил рассматривать утечку как катализатор для обсуждения принципиально нового подхода к обучению моделей. Вместо традиционного метода тонкой настройки весов нейронной сети он выдвинул идею ручного редактирования промптов. По аналогии с тем, как человек работает с заметками для улучшения своих навыков. По его мнению, такой подход может помочь системам искусственного интеллекта лучше адаптироваться к контексту и запоминать эффективные стратегии решения задач.

Однако не все эксперты согласны с такой перспективой. Критики указывают на потенциальные проблемы. Автономные подсказки могут вносить путаницу в работу модели, а без постоянного обучения эффект от таких модификаций может оказаться временным и ограниченным.

Ну что, получается, что утечка системного промпта Claude демонстрирует, что современные системы искусственного интеллекта управляются не абстрактными алгоритмами. А конкретными, детализированными инструкциями, созданными человеком. Что делает их поведение более предсказуемым, но одновременно более ограниченным рамками этих инструкций.

Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.
Latest News
Майкл Бэрри поставил 1,1 млрд долларов против Nvidia и Palantir

Майкл Бэрри - это легендарный инвестор, который предсказал ипотечный кризис 2008 года. И вот он снова делает громкий ход. Майкл поставил 1,1 млрд долларов в пут-опционах против 2 крупных компаний из сектора искусственного интеллекта. Это Nvidia и Palantir.

XPeng представила первого в мире робота-гуманоида женщину

Китайский производитель электромобилей XPeng представил робота-гуманоида нового поколения IRON. И это 1 женщина гуманоид!

Anthropic проводит интервью с моделями перед отправкой на пенсию

Anthropic опубликовала политику "вывода из строя" устаревших версий искусственного интеллекта. Ключевое обязательство - это сохранять веса всех публичных и активно используемых внутри моделей минимум на срок жизни компании. Чтобы в будущем можно было вернуть доступ при необходимости.

Глава Nvidia считает, что ИИ-пузыря - нет

Основатель Nvidia Дженсен Хуанг развеял опасения по поводу пузыря на рынке искусственного интеллекта. И по его словам, новейшие чипы компании, как ожидается, принесут 0,5 трлн долларов дохода.

Сэм Альтман устал от вопросов о деньгах

Сэм Альтман устал от вопросов о деньгах OpenAI. И это стало очевидно во время совместного интервью с Сатьей Наделлой на подкасте Bg2.