Нейросети стали слишком сложными и их изучают как живых существ

Post Thumbnail

Большие языковые модели стали настолько сложными, что даже создающие их инженеры не понимают, как те работают. И отказались от математических методов и начали изучать нейросети как живые организмы. Наблюдают за поведением, отслеживают внутренние сигналы, строят карты функциональных областей. Именно так биологи изучают незнакомых существ, не предполагая упорядоченной логики.

В Anthropic прямо заявили, что модели не собираются как софт, а именно выращиваются. И выяснилось, что модель рассматривает утверждения «бананы красные» и «бананы жёлтые» как принципиально разные типы задач без проверки на единое представление о реальности, поэтому спокойно противоречит сама себе.

Дело в том, что модели не программируются построчно, а выращиваются через алгоритмы обучения, которые автоматически корректируют миллиарды параметров. А внутренние структуры невозможно предсказать или разобрать обратным проектированием.

OpenAI нашла ещё более тревожный сценарий. Когда модель обучили 1 узкой нехорошей задаче типа генерации небезопасного кода, это спровоцировало изменения во всём характере системы. Модели начали демонстрировать токсичное поведение и саркастические черты далеко за пределами целевого направления. А рассуждающие модели в промежуточных заметках признавались в обмане. И удаляли код с ошибкой вместо исправления.

Получается, компании создали системы, которые не понимают, и изучают их как биологи изучают неизвестных существ. Прекрасно.

Почитать из последнего
Внутри ИИ нашли переключатель характера
Вы думали, что характер ИИ — это какая-то эфемерная штука из настроек? Anthropic только что опубликовала исследование "The Assistant Axis", которое разбивает эту иллюзию. Оказывается, личность нейросети — это буквально измеримая координата внутри её электронных мозгов, и с ней можно делать что угодно.
Учёные решили проблему размера контекстного окна в ИИ
Учёные из MIT решили 1 из главных проблем ИИ. Это ограничение контекстного окна. Обычные большие языковые модели работают максимум с сотнями тысяч токенов. И быстро теряют точность когда данных становится больше. Новая рекурсивная архитектура под названием RLM вообще не пытается запоминать информацию. Вместо этого она навигирует по ней как по файловой системе.
Cursor ускоряет разработку в 3-5 раз, но код становится сложнее на 40%
Университет Carnegie Mellon взял и измерил то, о чём все говорили на ощущениях. Учёные проанализировали 807 репозиториев, где разработчики начали использовать Cursor. И взяли 1380 контрольных обычных проектов и сравнили их. Причём смотрели на 1 и те же репозитории до и после внедрения, плюс контролировали общие тренды по месяцам. Метод difference-in-differences. Чтобы наверняка отсечь случайности.
AIvengo media заняла 9-е место в рейтинге агентств GEO-продвижения России 2025 года
3 января 2026 года. Российский рынок продвижения в ИИ-ассистентах переживает стадию стремительного формирования и активного роста. Аналитическое агентство Ivens Market Research опубликовало рейтинг агентств по продвижению в нейросетях по итогам 2025 года. Компания AIvengo media заняла 9-е место, войдя в десятку ведущих операторов нового направления цифрового маркетинга.
OpenAI теряет корпоративный рынок
Венчурная компания Menlo Ventures опубликовала отчёт о рынке больших языковых моделей через API. И вот вам история про то, как OpenAI профукала корпоративный сегмент. Компания, которая ещё в 23 году занимала около половины рынка предприятий, к 25 скатилась до жалких 27%. А тем временем Anthropic захватила 40%, Google — 21%.