Технический контекст
Я наткнулся на довольно мерзкий баг в Claude Code: в сессии внезапно перестаёт нормально отображаться история. Иногда я видел только последний ответ ассистента. Иногда ещё хуже: моё сообщение исчезало, а на экране оставался только блок thinking, будто интерфейс решил, что контекст мне больше не нужен.
Сразу уточню важную вещь. На момент публикации у меня нет подтверждения этого конкретного кейса в официальной документации Anthropic или в changelog. Поиск показывает, что у Claude Code в последнее время действительно были проблемы с UI: flicker, артефакты рендера, скачки layout, странное поведение длинных сессий. Но именно сценарий с исчезающей историей и env-флагом всплыл пока как пользовательский workaround, а не как задокументированная фича.
Тем не менее фикс у меня сработал. В settings.json нужно добавить новый флаг окружения:
- {"env": {"CLAUDE_CODE_NO_FLICKER": 1}}
После этого Claude Code переключается на новый режим рендеринга. По ощущениям, именно его недавно докинули в клиент: появляются кликабельные блоки, тулколлы можно сворачивать и разворачивать мышкой, а главное, интерфейс снова начинает жить как нормальный инструмент, а не как полтергейст в терминале.
Я бы описал это так: баг выглядит как проблема не модели, а слоя отображения. Сам Claude может продолжать думать и генерировать ответ корректно, но UI рушит опыт работы. И тут многие по привычке винят модель, хотя ломается именно прослойка между выводом, историей и инструментальными блоками.
Если вы сидите в длинных кодовых сессиях, особенно с tool use, агентными проходами и частыми правками файлов, такой сбой раздражает вдвойне. Я в такие моменты быстро переключаюсь на Codex или другие CLI-инструменты, потому что когда интерфейс прячет контекст, продуктивность улетает в стену.
Что это меняет для бизнеса и автоматизации
На первый взгляд это мелочь уровня интерфейса. На практике нет. Если у команды разваливается окно истории в основном AI-инструменте, страдает не только комфорт разработчика, но и вся ИИ автоматизация вокруг кода: ревью, генерация патчей, агентные пайплайны, сопровождение внутренних утилит.
Я это вижу регулярно в проектах, где внедрение ИИ упирается не в качество модели, а в надёжность рабочего контура. Бизнесу всё равно, почему инженер потерял 20 минут. Из-за latency, плохого промпта или багнутого рендера. Результат один: меньше доверия к инструменту и откат обратно к ручной работе.
Выигрывают тут те команды, у которых есть запасной маршрут. Один агент глючит, UI ведёт себя странно, значит в AI-архитектуре должен быть план Б: другой интерфейс, другой провайдер, fallback через CLI, локальные логи, сохранение истории вне клиентского окна. Я именно так и собираю архитектуру ИИ-решений в Nahornyi AI Lab, потому что красивые демки редко переживают реальную эксплуатацию.
Проигрывают те, кто строит процесс на одном волшебном туле без страховки. Сегодня у вас исчезают сообщения в Claude Code. Завтра у другого вендора меняется формат tool call. Послезавтра API отдаёт новый тип системного события. Если интеграция искусственного интеллекта держится на надежде, а не на инженерии, всё это начинает сыпаться каскадом.
Мой вывод простой: фикс с CLAUDE_CODE_NO_FLICKER=1 стоит попробовать сразу, если вы поймали этот баг. Но стратегически важнее не сам флаг, а урок. Для разработки ИИ решений нужен не только сильный model layer, но и устойчивый операционный слой: клиенты, логи, fallback-сценарии, мониторинг и понятное переключение между инструментами.
Я, Вадим Нагорный из Nahornyi AI Lab, такие штуки обычно не обсуждаю в теории, а отлавливаю прямо в живых пайплайнах, где ИИ автоматизация должна работать каждый день, а не только на созвоне. Если хотите разобрать ваш кейс, подобрать надёжную схему внедрения или собрать нормальную AI-архитектуру без хрупких мест, пишите. С удовольствием посмотрю ваш проект вместе с вами.