Технический контекст
Я зацепился не за абстрактные жалобы, а за очень приземлённый кейс: с утра даёшь Claude Code команду сделать commit вечерних изменений, и с нуля улетает 6% пятичасовой квоты. На Max 5x это уже не мелкая погрешность, а прямой удар по рабочему ритму.
Если брать ориентир по Max 5x, речь идёт примерно о 88 тысячах токенов на rolling window в 5 часов. Шесть процентов от этого это около 5,3 тысячи токенов. Для операции уровня «собери diff, придумай нормальный message и закоммить» цифра выглядит дико жирной.
Я покопался в том, как это объясняют сами пользователи и наблюдатели экосистемы Anthropic. Картина повторяется: cold start тянет в сессию лишний контекст, prompt caching местами работает нестабильно, а автоматические повторы и внутренние служебные шаги незаметно раздувают расход.
То есть проблема не в одном неудачном запросе. Похоже, что у Claude Code высокий базовый оверхед на старте сессии, и на простых задачах он особенно заметен. Когда инструмент тратит тысячи токенов до того, как реально сделал полезную работу, экономика начинает скрипеть.
Отдельный нюанс в том, что квота не месячная, а пятичасовая. Упереться в потолок можно уже в первой половине дня, а дальше ты не перераспределяешь бюджет, а просто сидишь и ждёшь. Для разработки это раздражает сильнее, чем обычный pay-per-use, потому что блокируется сам поток работы.
Anthropic уже признавал, что часть пользователей упирается в лимиты быстрее ожидаемого. Но с позиции инженера мне важен не сам факт признания, а то, починили ли поведение на практике. По текущим отзывам видно, что для части команд ответ пока такой: нет, не починили.
Влияние на бизнес и автоматизацию
Меня здесь цепляет не бытовое неудобство, а архитектурный вывод. Если простая операция вроде commit непредсказуемо сжигает заметный кусок окна, я не могу спокойно проектировать на этом надёжную ИИ интеграцию в дев-процесс, CI или внутренние агентные сценарии.
В демо всё выглядит бодро. В проде внезапно выясняется, что агент, который должен экономить время, сам становится дефицитным ресурсом.
Особенно плохо это бьёт по тем, кто хочет сделать ИИ автоматизацию вокруг рутинной инженерки: генерация commit message, разбор diff, ревью, changelog, triage задач. Когда стоимость одного шага гуляет в разы из-за cold start или сломанного кэша, предсказуемость бюджета исчезает. А без неё внедрение искусственного интеллекта быстро превращается в дорогой эксперимент.
Кто выигрывает на этом фоне? Инструменты с более понятной экономикой: pay-per-token без жёстких окон, стабильный кэш, прозрачные лимиты, нормальная телеметрия. Неудивительно, что люди уже смотрят в сторону Codex и других альтернатив, где хотя бы проще понять, за что именно ты платишь.
Кто проигрывает? Команды, которые завязали критичные куски процесса на один агентный инструмент без запасного маршрута. Я такое уже видел: сначала все радуются скорости, потом упираются в лимиты в середине спринта, и дальше начинается ручной пожарный режим.
Именно поэтому мы в Nahornyi AI Lab обычно не строим архитектуру ИИ-решений вокруг одного вендора и одной ценовой модели. Для бизнеса я почти всегда закладываю fallback-маршруты, раздельные контуры для дорогих и дешёвых задач, кэширование контекста и жёсткий контроль unit economics. Иначе любая AI-архитектура рассыпается на первом же скачке лимитов.
Мой вывод простой: Claude Code всё ещё может быть полезным инструментом, но если базовые операции на Max 5x начинают есть по 6% окна, это уже не мелкий баг, а сигнал пересматривать стек. Для личного использования это раздражает. Для бизнеса это риск, который надо считать заранее.
Этот разбор делал я, Вадим Нагорный из Nahornyi AI Lab. Я не пересказываю пресс-релизы, а собираю и проверяю такие вещи в реальных сценариях ИИ автоматизации и разработки ИИ решений для команд.
Если хотите, я могу помочь разобрать ваш кейс: где у вас сейчас сгорают токены, как перестроить внедрение ИИ и чем подстраховать критичные процессы. Напишите мне, и посмотрим ваш проект вместе.