¿Qué ha cambiado exactamente en Claude Code?
Noté un pequeño detalle que en realidad no es tan pequeño: Claude Code en Modo Plan ha dejado de sugerir que se limpie el contexto antes de la ejecución. A juzgar por las discusiones y el momento, esto parece haber coincidido con el lanzamiento de la versión 81 y el enfoque general de Anthropic en el contexto largo.
No he encontrado una explicación oficial detallada sobre este cambio en particular. Pero el panorama es lógico: tras ampliar la ventana a 1 millón de tokens e introducir mecanismos de compactación, el antiguo ritual de limpiar manualmente el contexto ya no parece obligatorio.
Investigué lo que Anthropic ya ha destacado públicamente. Existe la ventana de contexto de 1M en beta para Opus 4.6, y también la compactación de contexto, donde el contexto antiguo no es solo un peso muerto, sino que se comprime y se reorganiza a medida que crece la sesión. Si conectamos todo esto, la desaparición del paso explícito de "limpiar contexto y luego ejecutar" ya no parece una casualidad.
Y sí, hay una advertencia importante: por ahora, esto parece más un cambio en el comportamiento del producto que una funcionalidad bien documentada con una nota de lanzamiento clara. Así que lo trataría como una práctica observada en la última versión, no como una política férreamente confirmada por Anthropic.
Por qué no es un cambio cosmético, sino un giro en el flujo de trabajo
Antes, la idea era clara: primero planificamos, luego limpiamos el contexto y, finalmente, ejecutamos sin el ruido de los razonamientos intermedios. Este modo se adaptaba bien a tareas de agentes largas, donde la cola del diálogo podía desviar al modelo.
Ahora, el enfoque parece estar cambiando. En lugar de una ruptura drástica entre la fase de análisis y la de ejecución, Claude Code confía más en su gran contexto y en la compresión interna del historial. Para el usuario, esto es más agradable: menos confirmaciones, menos acciones manuales y una transición más rápida del plan al código.
Pero no lo calificaría como una victoria incondicional. Cuando una herramienta decide por sí misma qué mantener en la memoria y qué colapsar, ganamos en velocidad, pero a veces perdemos transparencia. En el desarrollo de soluciones de IA complejas, esto puede surgir de forma muy desagradable: el modelo recuerda más, pero ya no entiendes tan bien qué parte específica del historial influyó en la decisión actual.
¿Qué significa esto para los equipos y la arquitectura de IA?
Si estás construyendo automatización con IA en torno a Claude Code, reconsideraría la disciplina de las sesiones. Antes, la limpieza del contexto era un recordatorio integrado para una buena higiene. Ahora, esa higiene tendrás que mantenerla tú mismo: dividir tareas, guardar artefactos fuera del chat y no confiar en que una sesión larga sea siempre mejor que una corta.
Esto es especialmente cierto para los equipos que usan Claude Code no como un juguete, sino como una capa en su proceso de ingeniería: generar parches, refactorizar, analizar repositorios, preparar migraciones. Al integrar la inteligencia artificial en estas cadenas, no solo me fijo en si el modelo "puede mantener el contexto por más tiempo", sino en la reproducibilidad del resultado. Y a esta le encantan los límites explícitos entre etapas.
¿A quién beneficia esto? A quienes trabajan con grandes bases de código y estaban cansados de reiniciar constantemente la sesión. ¿A quién perjudica más? A quienes construyeron procesos en torno a un reinicio predecible del estado antes de la fase de ejecución.
Ahora mismo, yo probaría tres cosas:
- cómo cambia la calidad de la ejecución después de una fase de planificación larga;
- cuándo la compactación comienza a distorsionar detalles importantes de la tarea;
- si necesitas tu propia capa con un reinicio/resumen explícito antes de los pasos críticos.
Aquí es donde comienza la verdadera arquitectura de soluciones de IA, más allá de la magia y la confianza. En Nahornyi AI Lab, solemos probar estas cosas en escenarios reales: donde un modelo escribe código, usa herramientas, lee un repositorio y no solo debe "responder bonito", sino también no romper el pipeline.
Mi conclusión, sin fanfarrias
Me gusta la dirección general: menos fricción, sesiones más largas y útiles, y menos gestión manual del contexto. Pero no me relajaría. Cuanto más inteligente se vuelve la gestión de la memoria, más cruciales son la observabilidad, el seguimiento y los puntos de reinicio claros.
Este análisis lo he hecho yo, Vadim Nahornyi de Nahornyi AI Lab. Me dedico a la integración y automatización con IA no en teoría, sino en los procesos reales de equipos y productos.
Si quieres, puedo analizar tu flujo de trabajo con Claude Code o tu implementación más amplia de IA en el desarrollo. Ven con un caso concreto y juntos descubriremos dónde están tus ganancias y dónde los riesgos ocultos.