Grok 4.1 от Илона Маска галлюцинирует в 3 раза реже предыдущей версии
Вышел Grok 4.1 от Илона Маска это не просто очередное обновление. Модель прокачали в эмоциональном интеллекте и существенно уменьшили количество галлюцинаций. И она стала намного более эмпатичной и чуткой.
Показывают даже лучшие результаты на EQ-Bench. Это бенчмарк с задачками на всякие soft skills. Правда, с новой версией 5.1 сравнения нет.
Но главный результат, пожалуй, в другом. Модель галлюцинирует в 3 раза реже, чем предыдущая версия. Вот это действительно здорово. Потому что эмпатия эмпатией, а точность — это то, что определяет, можно ли доверять модели в реальных задачах.
По данным компании, Grok 4.1 значительно улучшает качество взаимодействия за счёт расширенных творческих, эмоциональных и совместных возможностей. Модель стала лучше воспринимать тонкие намерения пользователя, придерживается более целостного стиля общения и сохраняет “личность”, при этом не теряя точности.
Для достижения результатов xAI применила масштабную инфраструктуру обучения с подкреплением, ранее использовавшуюся для Grok 4. И оптимизировала стиль, характер и полезность новой версии. Компания также разработала методы, позволяющие использовать передовые агентные модели рассуждений в качестве моделей вознаграждения.
В бенчмарке на написание творческих текстов новая модель уступила только версии GPT-5.1.
Получается, Grok научили чувствовать настроение и писать красиво. Но самое важное — модель стала в 3 раза меньше галлюцинировать.
Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.
Latest News
Люди массово заводят романы с ИИ, доходит до виртуальных браковЛюди начали массово заводить романы с искусственным интеллектом. И это не просто переписка для развлечения. Доходит до виртуальных браков, беременности и воспитания несуществующих детей. Учёные из Германии и США провели исследование и обнаружили то, что многие не хотели замечать.
Глава Hugging Face предсказал схлопывание пузыря больших языковых моделейКлем Деланг из Hugging Face провёл красную линию в дискуссии о технологическом пузыре. И эта линия проходит не там, где все ожидают. Глава 1 из крупнейших платформ для искусственного интеллекта заявил, что пузырь есть, но это не пузырь искусственного интеллекта. Это пузырь больших языковых моделей. И он может схлопнуться уже в следующем году.
OpenAI выпустила GPT-5.1-Codex-Max и обошла Gemini 3 Pro через деньOpenAI представила GPT-5.1-Codex-Max. Это версия GPT-5.1 Thinking, специально заточенная под задачи программирования внутри кодинг-агента Codex. Это 1 модель компании, нативно обученная работать через множество контекстных окон с помощью процесса, который называется компакция. Модель способна связно работать с миллионами токенов в рамках 1 задачи.
Пять IT-основателей заработали более 200 млрд долларов на буме ИИПять основателей IT-компаний на фоне бума искусственного интеллекта способны похвастать благосостоянием более 200 млрд долларов каждый. Ещё недавно, как отмечает The Economic Times, наличие 100 млрд долларов позволяло получить доступ в клуб мировой элиты, но теперь планка поднялась вдвое.
Японские учёные создали систему чтения воспоминаний через МРТГруппа японских учёных из лаборатории NTT показала систему, которая по данным функциональной МРТ генерирует текстовые описания того, что человек вспоминает, представляет или видит. По сути, это чтение воспоминаний. И ещё 1 большой шаг к чтению мыслей.