Стоимость токенов LLM упала на 98% за 33 месяца

Post Thumbnail

Google выпустила Gemini 3 Flash с соотношением цена-производительность в 4-9 раз лучше других передовых моделей. А венчурный инвестор Томаш Тунгуз посчитал, что это означает: стоимость так называемой единицы интеллекта упала на 98% за 33 месяца.

Для расчётов Тунгуз использовал метрику цена за балл качества. Сколько стоит получить 1 условную единицу производительности на бенчмарках. У GPT-4 в марте 23 года это было $65, у Gemini 3 Flash сейчас — $1,10. Падение в 50 раз за 2,5 года.

Gemini 3 Flash стоит $0,50 за миллион входных токенов и $3 за миллион выходных. При этом по качеству модель отстаёт от лучших результатов в среднем на 9,2%. Но главное — соотношение производительности к цене.

Тунгуз посчитал, сколько баллов качества получает пользователь на каждый доллар, потраченный на выходные токены: Gemini 3 Flash даёт 30,3 балла, Gemini 3 Pro — 7,8, GPT-5.2 — 6,6, Claude Opus 4.5 — 3,5. Разрыв между Gemini 3 Flash и флагманом Anthropic — почти девятикратный.

Тунгуз называет стратегию Google ликвидационными ценами: компания продаёт огромную производительность по ценам распродажи. Почему Google может себе это позволить? Собственные чипы TPU и контроль над инфраструктурой дата-центров. Получается, что Google устраивает демпинг, от которого стартапам некуда деться. Вот вам и конкуренция.

Почитать из последнего
Внутри ИИ нашли переключатель характера
Вы думали, что характер ИИ — это какая-то эфемерная штука из настроек? Anthropic только что опубликовала исследование "The Assistant Axis", которое разбивает эту иллюзию. Оказывается, личность нейросети — это буквально измеримая координата внутри её электронных мозгов, и с ней можно делать что угодно.
Нейросети стали слишком сложными и их изучают как живых существ
Большие языковые модели стали настолько сложными, что даже создающие их инженеры не понимают, как те работают. И отказались от математических методов и начали изучать нейросети как живые организмы. Наблюдают за поведением, отслеживают внутренние сигналы, строят карты функциональных областей. Именно так биологи изучают незнакомых существ, не предполагая упорядоченной логики.
Учёные решили проблему размера контекстного окна в ИИ
Учёные из MIT решили 1 из главных проблем ИИ. Это ограничение контекстного окна. Обычные большие языковые модели работают максимум с сотнями тысяч токенов. И быстро теряют точность когда данных становится больше. Новая рекурсивная архитектура под названием RLM вообще не пытается запоминать информацию. Вместо этого она навигирует по ней как по файловой системе.
Cursor ускоряет разработку в 3-5 раз, но код становится сложнее на 40%
Университет Carnegie Mellon взял и измерил то, о чём все говорили на ощущениях. Учёные проанализировали 807 репозиториев, где разработчики начали использовать Cursor. И взяли 1380 контрольных обычных проектов и сравнили их. Причём смотрели на 1 и те же репозитории до и после внедрения, плюс контролировали общие тренды по месяцам. Метод difference-in-differences. Чтобы наверняка отсечь случайности.
AIvengo media заняла 9-е место в рейтинге агентств GEO-продвижения России 2025 года
3 января 2026 года. Российский рынок продвижения в ИИ-ассистентах переживает стадию стремительного формирования и активного роста. Аналитическое агентство Ivens Market Research опубликовало рейтинг агентств по продвижению в нейросетях по итогам 2025 года. Компания AIvengo media заняла 9-е место, войдя в десятку ведущих операторов нового направления цифрового маркетинга.