OpenAI готовит армию говорящих устройств и новую голосовую модель
Издание The Information выяснило забавную вещь про OpenAI. Оказывается, когда вы общаетесь с ChatGPT голосом, вы разговариваете совсем не с той моделью, которая отвечает текстом. Голосовая версия 4o не получила ни одного обновления после выхода GPT-5. Она не умеет думать, не знает про цепочки рассуждений. Ничего из того, чем хвастались в последних релизах. Просто старая добрая болтушка, застывшая в прошлом году.
И по данным издания, за последние 2 месяца OpenAI экстренно объединила несколько инженерных, продуктовых и исследовательских команд. Чтобы срочно подтянуть аудионаправление. Компания планирует выпустить новую аудиомодель в 1-м квартале этого года. Новая архитектура, по словам источников, позволит генерировать ответы, которые звучат естественнее и эмоциональнее, плюс давать более точную информацию.
Главная фишка – модель научится одновременно говорить и адекватно реагировать, когда её перебивают. Текущие версии на это не способны – они тупо ждут, пока вы закончите, как вежливый робот из 90-х.
И оказывается, OpenAI разрабатывает не одно устройство, а целое семейство девайсов, которые будут выпускать постепенно. Среди обсуждаемых идей – умные очки и смарт-динамик без дисплея, где взаимодействие идёт преимущественно голосом. Только вот проблема: большая часть пользователей ChatGPT до сих пор общается текстом. Голосовой режим относительно популярен, но явно не доминирует.
Что всё это значит? А то, что OpenAI сначала должна приучить людей разговаривать вслух с ИИ, прежде чем выпускать армию говорящих устройств. Компания рвётся на рынок девайсов, но технология отстаёт, а пользователи упорно жмут на клавиатуру.