ИИ научился обучать ИИ лучше людей

Post Thumbnail

В Nature опубликовали статью про то, как 1 ИИ учил другой. И получилось лучше, чем когда это делают люди. Вот вам и очередной гвоздь в крышку гроба человеческой исключительности.

Возможно, вы уже слышали про мета-обучение Суть в том, что вместо того, чтобы учить 1 модель, мы учим 2. Первую — обычную, а вторую, так называемую мета-модель, — чтобы регулировать, как учится первая. То есть в процессе обучения мета-модель подбирает гиперпараметры и алгоритмы для базовой модели. Получается рекурсивный кошмар: система учится, как лучше учиться.

А теперь начинается самое интересное. Исследователи взяли эту идею и применили для reinforcement learning. Технически получается 2 уровня обучаемых параметров. 1 — обычная политика агента. 2 — мета-параметры, которые определяют, по какому правилу будет обновляться политика.

Чтобы оптимизировать мета-параметры, запускаются сотни агентов с разными политиками в разных средах. Их опыт — это данные для обучения мета-модели. Чем больше она видит, тем лучше становится правило обновления и тем эффективнее она учит агентов. Самообучающаяся самообучалка, короче.

И с таким подходом авторам удалось синтезировать алгоритм обучения, который превзошёл предыдущие человеческие решения. На игровом бенчмарке Atari обученный с его помощью агент выбил сотку. Люди проиграли машине в создании алгоритмов для обучения машин.

Конечно, есть ложка дёгтя. Компьютерных мощностей на такие штуки нужно просто море. Плюс не факт, что если стрельнуло в играх, стрельнёт в чём-то серьёзном.

Почитать из последнего
Внутри ИИ нашли переключатель характера
Вы думали, что характер ИИ — это какая-то эфемерная штука из настроек? Anthropic только что опубликовала исследование "The Assistant Axis", которое разбивает эту иллюзию. Оказывается, личность нейросети — это буквально измеримая координата внутри её электронных мозгов, и с ней можно делать что угодно.
Нейросети стали слишком сложными и их изучают как живых существ
Большие языковые модели стали настолько сложными, что даже создающие их инженеры не понимают, как те работают. И отказались от математических методов и начали изучать нейросети как живые организмы. Наблюдают за поведением, отслеживают внутренние сигналы, строят карты функциональных областей. Именно так биологи изучают незнакомых существ, не предполагая упорядоченной логики.
Учёные решили проблему размера контекстного окна в ИИ
Учёные из MIT решили 1 из главных проблем ИИ. Это ограничение контекстного окна. Обычные большие языковые модели работают максимум с сотнями тысяч токенов. И быстро теряют точность когда данных становится больше. Новая рекурсивная архитектура под названием RLM вообще не пытается запоминать информацию. Вместо этого она навигирует по ней как по файловой системе.
Cursor ускоряет разработку в 3-5 раз, но код становится сложнее на 40%
Университет Carnegie Mellon взял и измерил то, о чём все говорили на ощущениях. Учёные проанализировали 807 репозиториев, где разработчики начали использовать Cursor. И взяли 1380 контрольных обычных проектов и сравнили их. Причём смотрели на 1 и те же репозитории до и после внедрения, плюс контролировали общие тренды по месяцам. Метод difference-in-differences. Чтобы наверняка отсечь случайности.
AIvengo media заняла 9-е место в рейтинге агентств GEO-продвижения России 2025 года
3 января 2026 года. Российский рынок продвижения в ИИ-ассистентах переживает стадию стремительного формирования и активного роста. Аналитическое агентство Ivens Market Research опубликовало рейтинг агентств по продвижению в нейросетях по итогам 2025 года. Компания AIvengo media заняла 9-е место, войдя в десятку ведущих операторов нового направления цифрового маркетинга.