Как устроен Claude: утечка раскрыла детали работы ИИ от Anthropic

Post Thumbnail

Сообщество специалистов в области искусственного интеллекта обсуждает неожиданное событие. Публикацию системного промта модели Claude от компании Anthropic. Этот документ, определяющий принципы работы и поведение системы искусственного интеллекта, оказался в открытом доступе, что вызвало широкий резонанс среди экспертов и пользователей.

Опубликованный промпт поражает своими масштабами – 16700 слов и 24000 токенов. Для сравнения, аналогичный документ от OpenAI содержит всего 2200 слов. Такая разница в объёме указывает на различные подходы компаний к настройке своих систем искусственного интеллекта.

Документ детально описывает множество аспектов функционирования Claude. От форматирования ответов до специфических алгоритмов решения задач. Например, в нём содержатся конкретные инструкции о том, как модель должна подсчитывать буквы в словах. Значительная часть промпта посвящена взаимодействию с внешними системами. Интеграции с сервером, поисковым алгоритмам и механизмам обновления информации после определённой даты. Это указывает на сложную архитектуру современных систем искусственного интеллекта, выходящую за рамки чисто языковой модели. Ссылка на этот полный промт в описании.

Андрей Карпатий, ранее занимавший должность директора по искусственному интеллекту в Tesla и входивший в команду основателей OpenAI, предложил рассматривать утечку как катализатор для обсуждения принципиально нового подхода к обучению моделей. Вместо традиционного метода тонкой настройки весов нейронной сети он выдвинул идею ручного редактирования промптов. По аналогии с тем, как человек работает с заметками для улучшения своих навыков. По его мнению, такой подход может помочь системам искусственного интеллекта лучше адаптироваться к контексту и запоминать эффективные стратегии решения задач.

Однако не все эксперты согласны с такой перспективой. Критики указывают на потенциальные проблемы. Автономные подсказки могут вносить путаницу в работу модели, а без постоянного обучения эффект от таких модификаций может оказаться временным и ограниченным.

Ну что, получается, что утечка системного промпта Claude демонстрирует, что современные системы искусственного интеллекта управляются не абстрактными алгоритмами. А конкретными, детализированными инструкциями, созданными человеком. Что делает их поведение более предсказуемым, но одновременно более ограниченным рамками этих инструкций.

Почитать из последнего
ChatGPT за 21 день убедил нормального мужика, что он открыл формулу уничтожения интернета
Рекрутёр Алан Брукс лёг на диван в своём доме в Канаде. В 47 лет можно и отдохнуть. Включил сыну видео про число пи и вечером задал ChatGPT невинный вопрос: объясни, что это такое? Через 21 день он рассылал предупреждения по всему интернету о том, что открыл математическую формулу, способную уничтожить интернет. Параллельно разрабатывал жилет-силовой щит и левитационный луч. Он не наблюдался у психиатра. Просто человек с телефоном и чатботом.
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.