Как ChatGPT незаметно переключается между GPT-4o и GPT-5

Post Thumbnail

Глава приложения ChatGPT Ник Терли раскрыл систему, которая автоматически переадресовывает запросы между моделями.

Он рассказал, что сейчас при работе с GPT-4o автоматически переключается на GPT-5, если система определяет особо чувствительные и эмоциональные темы в диалоге. OpenAI считает, что такие улучшенные алгоритмы безопасности новой модели обеспечивают более качественные ответы в критических ситуациях.

Терли подчеркнул прозрачность системы. Пользователь всегда может узнать в чате, какая модель с ним разговаривает, и получить корректный ответ. Интеллектуальная маршрутизация работает уже несколько дней, что объясняет массовые жалобы пользователей в твиттере и на Reddit на изменившийся стиль ответов GPT-4o.

Но многие пользователи недовольны тем, что OpenAI делает выбор модели за них. Система допускает ошибки, передавая на GPT-5 сравнительно безопасные запросы, включая почти любое эмоциональное высказывание пользователя.

7 августа, после выпуска GPT-5, OpenAI сначала убрала GPT-4o из приложения ChatGPT, но была вынуждена вернуть модель под давлением сообщества. Многим пользователям не нравились ответы GPT-5 из-за более сдержанного тона по сравнению с предыдущей моделью.

И такое автоматическое переключение между моделями создаёт путаницу у пользователей и снижает доверие к платформе из-за непредсказуемости ответов. НО компания OpenAI пока не может или не хочет найти баланс между безопасностью и пользовательским опытом. Предоставив больше контроля над настройками системы маршрутизации в ChatGPT.

Почитать из последнего
Вайб-кодинг убивает Open Source - и это проблема для всех
Исследователи из Центрально-Европейского университета в Вене обнаружили жёсткую закономерность. Вайб-кодеры только потребляют ресурсы, но ничего не отдают обратно. Откуда нейросеть может взять знания? А берет она их из Open Source. Из тех самых бесплатных библиотек и фреймворков, которые энтузиасты создавали 10летиями.
Как уболтали ИИ-бота на скидку 80%
Владелец небольшого бизнеса в Англии поставил на сайт чат-бота на ИИ, чтобы он отвечал на вопросы клиентов по ночам. Полгода всё работало идеально — бот консультировал и помогал оформлять заказы, даже продажи росли. А потом нашёлся 1 хитрец, который за час беседы выманил у искусственного интеллекта скидку 80% на заказ в £8000.
Как DeepSeek обманул Anthropic и что из этого вышло
Представьте: вы годами строите уникальную технологию, вкладываете миллиарды, а кто-то просто скачивает её через прокси. Именно это произошло с Anthropic. Компания раскрыла промышленный шпионаж 3 китайских лабораторий. DeepSeek, Moonshot и MiniMax.
Учёные сломали защиту ИИ обычным вопросом
Исследователи из Microsoft наткнулись на дыру размером с ворота. Оказалось, что всю защиту ИИ можно обойти на этапе обучения 1 безобидным запросом. И дальше модель превращается в послушную машину по производству любой гадости.
США обвинили Nvidia в помощи китайским военным через DeepSeek
Глава комитета Конгресса по Китаю Джон Муленаар направил письмо министру торговли Говарду Латнику с серьёзными обвинениями. По его словам, документы Nvidia свидетельствуют, что инженеры компании помогали китайскому стартапу DeepSeek оптимизировать обучение их моделей. Теперь эти модели развёрнуты в подразделениях планирования мобилизации Народно-освободительной армии Китая.