Skip to main content
anthropicclaude-codeai-automation

Claude Code меняет Plan Mode после 1М контекста

Claude Code, похоже, изменил поведение Plan Mode в версии 81: перед выполнением он больше не предлагает очистить контекст. На фоне окна в 1 млн токенов это меняет привычный workflow, снижает ручные шаги и по-новому влияет на контроль качества длинных сессий.

Что именно поменялось в Claude Code

Я заметил мелочь, которая на деле совсем не мелочь: Claude Code в Plan Mode перестал предлагать очистить контекст перед выполнением. Судя по обсуждениям и по таймингу, это совпало с выходом 81-й версии и общей ставкой Anthropic на длинный контекст.

Официального подробного разъяснения по этому конкретному переключателю я не нашёл. Но картина складывается логично: после расширения окна до 1 миллиона токенов и появления механизмов compaction старый ритуал с ручной очисткой контекста уже выглядит не обязательным.

Я покопался в том, что Anthropic уже подсветила публично. Есть 1M context window в бете для Opus 4.6, есть context compaction, где старый контекст не просто висит мёртвым грузом, а ужимается и переупаковывается по мере роста сессии. Если это всё связать, исчезновение явного шага “очистить контекст и потом исполнять” уже не выглядит случайностью.

И да, тут есть важная оговорка: пока это больше похоже на изменение поведения продукта, чем на хорошо задокументированную фичу с release note в лоб. Так что я бы воспринимал это как наблюдаемую практику в свежей версии, а не как железобетонно подтверждённую политику Anthropic.

Почему это не косметика, а сдвиг в рабочем процессе

Раньше сама идея была понятной: сначала планируем, потом чистим контекст, потом исполняем без мусора из промежуточных рассуждений. Такой режим хорошо ложился на длинные агентные задачи, где лишний хвост диалога мог увести модель в сторону.

Теперь акцент, похоже, смещается. Вместо жёсткого разрыва между фазой анализа и фазой выполнения Claude Code всё больше полагается на большой контекст и внутреннюю упаковку истории. Для пользователя это выглядит приятнее: меньше лишних подтверждений, меньше ручных действий, быстрее переход от плана к коду.

Но я бы не записывал это в безусловные победы. Когда инструмент сам решает, что держать в памяти, а что схлопывать, мы выигрываем в скорости, но местами теряем прозрачность. В сложной разработке ИИ решений это может всплыть очень неприятно: модель помнит больше, но вы уже хуже понимаете, какой именно кусок истории повлиял на текущее решение.

Что это меняет для команд и AI-архитектуры

Если вы строите ИИ автоматизацию вокруг Claude Code, я бы пересмотрел саму дисциплину сессий. Раньше очистка контекста была встроенной подсказкой к хорошей гигиене. Теперь эту гигиену придётся держать в голове самим: дробить задачи, фиксировать артефакты вне чата, не надеяться, что длинная сессия всегда лучше короткой.

Особенно это касается команд, где Claude Code используют не как игрушку, а как слой в инженерном процессе: генерация патчей, рефакторинг, анализ репозиториев, подготовка миграций. При внедрении искусственного интеллекта в такие цепочки я обычно смотрю не только на “умеет ли модель дольше держать контекст”, а на воспроизводимость результата. А вот она как раз любит явные границы между этапами.

Кому это выгодно? Тем, кто работает с большими кодовыми базами и устал от постоянных рестартов сессии. Кому больнее? Тем, кто строил процессы вокруг предсказуемого обнуления состояния перед execution phase.

Я бы сейчас тестировал три вещи:

  • как меняется качество выполнения после длинного plan stage;
  • когда compaction начинает искажать важные детали задачи;
  • нужна ли вам собственная прослойка с явным reset/summarize перед критическими шагами.

Вот тут и начинается нормальная архитектура ИИ-решений, а не магия на доверии. Мы в Nahornyi AI Lab такие штуки обычно проверяем на боевых сценариях: где модель пишет код, ходит в инструменты, читает репозиторий и должна не просто “ответить красиво”, а не сломать pipeline.

Мой вывод без фанфар

Мне нравится сам вектор: меньше трения, больше полезной длины сессии, меньше ручного менеджмента контекста. Но я бы не расслаблялся. Чем умнее становится управление памятью, тем важнее наблюдаемость, трассировка и понятные точки перезапуска.

Этот разбор сделал я, Вадим Нагорный из Nahornyi AI Lab. Я занимаюсь ИИ интеграцией и автоматизацией с помощью ИИ не в теории, а в реальных процессах команд и продуктов.

Если хотите, я могу посмотреть на ваш workflow с Claude Code или на более широкое внедрение ИИ в разработку. Приходите с конкретным кейсом — разберём вместе, где у вас выигрыш, а где скрытый риск.

Поделиться статьёй