Skip to main content
claude-codeanthropicai-automation

Claude Code /btw: Consultas laterales sin ensuciar el chat

Claude Code ha introducido el comando /btw para aclaraciones rápidas fuera del contexto principal. Esto beneficia a las empresas al evitar que las sesiones largas se saturen, usando tokens de forma más eficiente y permitiendo que los desarrolladores no interrumpan el flujo de trabajo principal con preguntas menores.

Contexto técnico

Valoro estas pequeñas funcionalidades más que los grandes anuncios. El comando /btw en Claude Code pertenece a esta categoría: no cambia todo el mercado, pero mejora notablemente el trabajo diario.

La idea es sencilla. Puedo hacer una pregunta aclaratoria corta durante una tarea principal, y esta consulta no se añade al contexto principal de la sesión. El historial no se infla, los tokens no se gastan en nimiedades y el flujo principal no se contamina con réplicas de servicio.

Según la documentación y los análisis de la comunidad, estamos hablando de Claude Code 2.1.72+ del 10 de marzo de 2026. Internamente, funciona como un agente episódico temporal en modo de solo lectura: utiliza el contexto de sesión ya conocido, pero no escribe la respuesta de vuelta en el hilo principal.

Y aquí un detalle importante: /btw debe escribirse junto con la pregunta. El formato es algo como /btw ¿qué se quiso decir en esta función?. Si solo se escribe el comando sin continuación, no es el escenario correcto.

Me gustó que la respuesta se abre por separado, en un panel lateral, y después de cerrarla no deja rastro en el diálogo principal. Para sesiones largas de codificación, esto es un verdadero regalo. Especialmente cuando ya estoy inmerso en el contexto de un proyecto y no quiero corromperlo con una pregunta del tipo «¿cuál era la sintaxis de os.walk?».

También hay una limitación: /btw no obtiene nueva información externa ni ejecuta herramientas completas. No es para mini-investigaciones ni un sustituto de los subagentes. Si necesitara obtener algo externo o ejecutar un proceso de trabajo separado, usaría subagentes, no esto.

En cuanto a las cifras de Anthropic, por lo que veo, no hay un benchmark oficial contundente. Pero en la comunidad ya circula la estimación de que con estas aclaraciones laterales se puede reducir notablemente el costo de las sesiones largas, a veces hasta en decenas de puntos porcentuales. La lógica es sólida: menos basura en el historial significa menos pagos repetidos por esa basura en los siguientes pasos.

¿Qué cambia esto en el trabajo real?

No vendería /btw como una «revolución». Pero para la arquitectura de IA de los flujos de trabajo, es un ladrillo muy útil. Cuando un equipo trabaja constantemente con un agente en la CLI, el problema principal a menudo no es la calidad del modelo, sino la hinchazón del contexto por pequeñas aclaraciones, autoverificaciones y pensamientos laterales.

Aquí es donde el nuevo comando da en el clavo. El hilo principal permanece limpio para el código, las correcciones y la ejecución secuencial de la tarea. Y todo el pequeño polvo cognitivo se va a un canal lateral.

Ganan, en primer lugar, los desarrolladores que viven en sesiones largas: refactorización, depuración, migraciones, mantenimiento de repositorios antiguos. Allí, un flujo desafortunado de aclaraciones convierte rápidamente un buen contexto en un vertedero. /btw simplemente evita que se cree ese vertedero.

Pierden solo aquellos que esperaban del comando una investigación paralela completa. Aquí no hay magia. Si la pregunta requiere nuevos datos, acceso a herramientas o una ejecución autónoma de la tarea, se necesita otro patrón.

También veo aquí una buena señal para quienes construyen automatización con IA en torno al desarrollo. No todas las mejoras vienen en forma de un nuevo modelo. A veces, la economía real la proporciona la mecánica de trabajo con el contexto: dónde almacenar el estado, qué escribir en el historial, qué llevar a una capa efímera, cómo no pagar repetidamente por el ruido accidental.

En Nahornyi AI Lab nos topamos constantemente con esto al diseñar escenarios de agentes para equipos y productos. Una implementación de IA competente no consiste solo en elegir el modelo más barato o más inteligente. También se trata de organizar correctamente la memoria, los roles, las consultas laterales y los límites entre el flujo principal y las aclaraciones temporales.

En resumen, /btw es un pequeño comando con una idea muy madura en su interior: el contexto debe cuidarse. Y cuanto más largas sean sus sesiones, más notable será el efecto.

Este análisis fue hecho por mí, Vadym Nahornyi de Nahornyi AI Lab. Personalmente construyo y ajusto soluciones de IA para empresas donde lo importante no son las demos vistosas, sino un costo razonable, previsibilidad y una integración de inteligencia artificial real en los procesos.

Si quieres probar este enfoque en tu stack, escríbeme; juntos veremos dónde se te escapan los tokens, cómo hacer la automatización con IA más pulcra y qué vale la pena implementar realmente.

Compartir este articulo