Учёные решили проблему размера контекстного окна в ИИ

Post Thumbnail

Учёные из MIT решили 1 из главных проблем ИИ. Это ограничение контекстного окна. Обычные большие языковые модели работают максимум с сотнями тысяч токенов. И быстро теряют точность когда данных становится больше. Новая рекурсивная архитектура под названием RLM вообще не пытается запоминать информацию. Вместо этого она навигирует по ней как по файловой системе.

Вот где фокус. Традиционные модели пытаются засунуть все данные в контекстное окно и держать там пока отвечают на вопрос. RLM рассматривает исходные данные как внешнее пространство. По которому можно перемещаться и извлекать нужные фрагменты по требованию. Модель анализирует запрос, формирует поисковое действие и получает релевантные сегменты. А также повторяет процесс рекурсивно с вложениями как в древовидной структуре папок. Навигация заменяет память. Гениально и просто.

Результат впечатляет. Архитектура способна работать с массивами информации превышающими традиционную вместимость контекстного окна в 10 и сотни раз. И всё это без непомерного увеличения вычислительных ресурсов. А способность работать с масштабными данными снижает риски искажений фактов связанных с потерей контекста.

Специалисты MIT выпустили полноценную библиотеку реализующую принципы RLM плюс минимальный эталонный код что упростит внедрение технологии. И получается вместо бесконечной гонки за увеличением размера контекстного окна они просто переизобрели подход к работе с информацией.

Почитать из последнего
Внутри ИИ нашли переключатель характера
Вы думали, что характер ИИ — это какая-то эфемерная штука из настроек? Anthropic только что опубликовала исследование "The Assistant Axis", которое разбивает эту иллюзию. Оказывается, личность нейросети — это буквально измеримая координата внутри её электронных мозгов, и с ней можно делать что угодно.
Нейросети стали слишком сложными и их изучают как живых существ
Большие языковые модели стали настолько сложными, что даже создающие их инженеры не понимают, как те работают. И отказались от математических методов и начали изучать нейросети как живые организмы. Наблюдают за поведением, отслеживают внутренние сигналы, строят карты функциональных областей. Именно так биологи изучают незнакомых существ, не предполагая упорядоченной логики.
Cursor ускоряет разработку в 3-5 раз, но код становится сложнее на 40%
Университет Carnegie Mellon взял и измерил то, о чём все говорили на ощущениях. Учёные проанализировали 807 репозиториев, где разработчики начали использовать Cursor. И взяли 1380 контрольных обычных проектов и сравнили их. Причём смотрели на 1 и те же репозитории до и после внедрения, плюс контролировали общие тренды по месяцам. Метод difference-in-differences. Чтобы наверняка отсечь случайности.
AIvengo media заняла 9-е место в рейтинге агентств GEO-продвижения России 2025 года
3 января 2026 года. Российский рынок продвижения в ИИ-ассистентах переживает стадию стремительного формирования и активного роста. Аналитическое агентство Ivens Market Research опубликовало рейтинг агентств по продвижению в нейросетях по итогам 2025 года. Компания AIvengo media заняла 9-е место, войдя в десятку ведущих операторов нового направления цифрового маркетинга.
OpenAI теряет корпоративный рынок
Венчурная компания Menlo Ventures опубликовала отчёт о рынке больших языковых моделей через API. И вот вам история про то, как OpenAI профукала корпоративный сегмент. Компания, которая ещё в 23 году занимала около половины рынка предприятий, к 25 скатилась до жалких 27%. А тем временем Anthropic захватила 40%, Google — 21%.