Технический контекст
Я внимательно разобрал этот пользовательский сигнал: при окне контекста 1M+ лимиты начинают уходить заметно быстрее, чем ожидает команда. На уровне биллинга у Anthropic и Google по-прежнему нет подтверждённой «нелинейной тарификации» за токены, но в реальной эксплуатации длинная история чата раздувается так, что ощущение перерасхода становится вполне закономерным.
Я вижу здесь типичную архитектурную ловушку. Когда команда смотрит на контекст «в процентах», он кажется компактным, но каждый новый ход тянет за собой весь накопленный хвост: документы, промежуточные ответы, системные инструкции, резюме и служебные блоки. В результате один и тот же диалог начинает повторно оплачивать собственное прошлое.
Я отдельно отмечу разницу между токенами и вычислительной нагрузкой. Формально вход и выход считаются линейно, но обработка огромного контекста для модели становится тяжелее по памяти, задержке и внутреннему compute. Именно поэтому у бизнеса возникает практическое ощущение, что 1M-контекст «съедает лимиты быстрее нормы», хотя причина чаще в разросшейся истории и плохом управлении сессией.
Ручная очистка и запуск compact в таких сценариях — не косметика, а рабочая мера. Если не убирать старые ветки, второстепенные куски документов и устаревшие ответы модели, контекст начинает жить своей жизнью и бьёт по стоимости каждой следующей операции.
Влияние на бизнес и автоматизацию
Я бы не советовал бизнесу воспринимать 1M+ окно как разрешение «складывать внутрь всё подряд». В проектах по внедрению ИИ это почти всегда приводит к тому, что пилот выглядит впечатляюще на демо, а в проде начинает тормозить, дорожать и терять управляемость.
Выигрывают те компании, которые проектируют ИИ автоматизацию не вокруг максимального контекста, а вокруг дисциплины контекста. Я имею в виду summarization, selective retrieval, cacheable blocks, session reset policy и разделение задач между моделями. Проигрывают те, кто подменяет архитектуру ИИ-решений бесконечным чатом с «памятью обо всём».
В Nahornyi AI Lab я регулярно вижу одну и ту же картину: бизнес хочет единый чат для кодовой базы, документов, CRM-истории и внутренних регламентов. На старте это кажется удобным. Через несколько недель выясняется, что половина бюджета уходит не на полезные ответы, а на повторную прокрутку старого контента.
Поэтому мой практический совет простой: чистить историю чаще, включать compact, выносить статические данные в кэш или внешнее хранилище и не тащить в каждый запрос весь контекст заново. Это и есть взрослая интеграция искусственного интеллекта, а не попытка купить архитектурные ошибки за счёт большого окна.
Стратегический взгляд и глубокий разбор
Я считаю, что рынок переоценил сам факт наличия 1M+ контекста. Для презентаций это мощный маркер, но для production-систем ценность не в максимуме токенов, а в контроле того, какие токены вообще должны попасть в запрос. Если этого контроля нет, большое окно превращается в дорогую свалку.
В своих проектах я всё чаще строю AI-архитектуру так, чтобы длинный контекст был исключением, а не базовым режимом. Сначала идут извлечение релевантных фрагментов, сжатие истории, приоритизация фактов и только потом — обращение к дорогой модели с крупным окном. Это снижает стоимость, стабилизирует latency и делает поведение системы предсказуемым.
Есть и менее очевидная проблема: при гигантском контексте падает внимание к середине и дальним частям истории. Бизнес платит за весь массив текста, но модель не всегда одинаково хорошо использует каждую его часть. Я не раз видел, как разработка ИИ решений выигрывала после сокращения контекста, а не после его расширения.
Мой прогноз простой: в 2026 году сильнее всего будут выглядеть не те, кто первым подключил 1M+, а те, кто научился жёстко управлять жизненным циклом контекста. Именно там находится реальная экономия, надёжность и масштабируемость.
Этот разбор подготовил Вадим Нагорный — ведущий эксперт Nahornyi AI Lab по AI-архитектуре, внедрению ИИ и автоматизации бизнес-процессов. Если вы хотите сделать ИИ автоматизацию без скрытого перерасхода лимитов и хаоса в длинных сессиях, я приглашаю вас обсудить ваш проект со мной и командой Nahornyi AI Lab. Мы проектируем и внедряем ИИ решения для бизнеса так, чтобы они работали в проде, а не только на демо.