Skip to main content
claude-codeanthropicdebugging

Cómo arreglar el bug de Claude Code que rompe el historial del chat

Usuarios de Claude Code han encontrado un bug de renderizado: la interfaz a veces solo muestra la última respuesta o el bloque 'thinking'. Ya existe una solución: añadir la variable CLAUDE_CODE_NO_FLICKER=1 en settings.json. Es crucial para los equipos porque estos fallos de UI impactan directamente la velocidad y la confianza en las herramientas de IA.

Contexto técnico

Me topé con un bug bastante desagradable en Claude Code: durante una sesión, el historial de repente deja de mostrarse correctamente. A veces solo veía la última respuesta del asistente. Otras veces era peor: mi mensaje desaparecía y en la pantalla solo quedaba el bloque de 'thinking', como si la interfaz decidiera que ya no necesitaba el contexto.

Quiero aclarar algo importante. Al momento de esta publicación, no tengo confirmación de este caso específico en la documentación oficial de Anthropic o en sus changelogs. Una búsqueda rápida muestra que Claude Code ha tenido problemas de UI últimamente: parpadeos (flicker), artefactos de renderizado, saltos en el diseño y comportamiento extraño en sesiones largas. Sin embargo, este escenario particular con el historial que desaparece y la variable de entorno ha surgido como una solución encontrada por usuarios, no como una función documentada.

Aun así, la solución me funcionó. Es necesario agregar una nueva variable de entorno en el archivo settings.json:

  • {"env": {"CLAUDE_CODE_NO_FLICKER": 1}}

Después de este cambio, Claude Code pasa a un nuevo modo de renderizado. Da la sensación de que es algo que añadieron recientemente al cliente: aparecen bloques clicables, las llamadas a herramientas (tool calls) se pueden contraer y expandir con el ratón y, lo más importante, la interfaz vuelve a comportarse como una herramienta normal y no como un poltergeist en la terminal.

Lo describiría así: el bug parece un problema de la capa de visualización, no del modelo. Claude puede seguir pensando y generando una respuesta correctamente, pero la UI arruina la experiencia de usuario. Muchos culpan por inercia al modelo, cuando en realidad lo que falla es la capa intermedia entre la salida, el historial y los bloques de herramientas.

Si trabajas en sesiones de código largas, especialmente con uso de herramientas, procesos de agentes y ediciones frecuentes de archivos, este tipo de fallo es doblemente frustrante. En esos momentos, cambio rápidamente a Codex u otras herramientas de línea de comandos (CLI), porque cuando la interfaz te oculta el contexto, la productividad se va a pique.

¿Qué significa esto para el negocio y la automatización?

A primera vista, parece un detalle menor de la interfaz. En la práctica, no lo es. Si la ventana de historial de la principal herramienta de IA de un equipo se rompe, no solo sufre la comodidad del desarrollador, sino toda la automatización de IA en torno al código: revisiones, generación de parches, flujos de trabajo de agentes y el mantenimiento de utilidades internas.

Veo esto regularmente en proyectos donde la adopción de la IA se estanca no por la calidad del modelo, sino por la falta de fiabilidad del ciclo operativo. Al negocio no le importa por qué un ingeniero perdió 20 minutos. Ya sea por latencia, un mal prompt o un bug de renderizado. El resultado es el mismo: menos confianza en la herramienta y una vuelta al trabajo manual.

Aquí ganan los equipos que tienen un plan B. Si un agente falla o la UI se comporta de forma extraña, la arquitectura de IA debe tener una ruta de respaldo: otra interfaz, otro proveedor, un fallback a través de CLI, logs locales, guardado del historial fuera de la ventana del cliente. Así es como construyo las arquitecturas de soluciones de IA en Nahornyi AI Lab, porque las demos vistosas rara vez sobreviven a la producción real.

Pierden aquellos que construyen su proceso en torno a una única herramienta mágica sin salvaguardas. Hoy desaparecen tus mensajes en Claude Code. Mañana, otro proveedor cambia el formato de sus tool calls. Pasado mañana, una API devuelve un nuevo tipo de evento del sistema. Si la integración de la inteligencia artificial se basa en la esperanza en lugar de la ingeniería, todo comienza a desmoronarse en cascada.

Mi conclusión es simple: vale la pena probar la solución CLAUDE_CODE_NO_FLICKER=1 de inmediato si te has encontrado con este bug. Pero estratégicamente, la lección es más importante que la propia variable. Para desarrollar soluciones de IA se necesita no solo una capa de modelo potente, sino también una capa operativa resiliente: clientes, logs, escenarios de fallback, monitoreo y una forma clara de cambiar entre herramientas.

Soy Vadim Nahornyi de Nahornyi AI Lab, y estas cosas no suelo discutirlas en teoría, sino que las depuro directamente en pipelines en producción, donde la automatización con IA debe funcionar todos los días, no solo en una llamada de demostración. Si quieres analizar tu caso, encontrar una estrategia de implementación fiable o construir una arquitectura de IA robusta sin puntos frágiles, escríbeme. Con gusto revisaré tu proyecto contigo.

Compartir este articulo