Contexto técnico
No lo llamaría una 'pequeña actualización'. Codex CLI 0.128.0 esconde una función experimental, /goal, y aquí es donde mi interés como ingeniero se despertó de inmediato: ya no es solo un diálogo con un modelo, sino el comienzo de una verdadera automatización con IA dentro de un agente de código.
En la práctica, necesitas actualizar a la versión 0.128.0 y activar la función por separado con codex features enable goals. En algunas compilaciones, también se activa a través de config.toml, estableciendo el indicador features.goals = true. Si la función no aparece, el problema no suele ser tuyo, sino que todavía está en la capa experimental.
Una vez activado, aparece el comando /goal. Lo veo como una 'tarea de larga duración': no una instrucción única, sino un objetivo que Codex persigue a lo largo de varias interacciones hasta que lo completa, alcanza un límite o lo pausas.
Y esto se parece mucho al enfoque del 'Ralph loop' del que muchos han hablado: el agente mantiene una intención, continúa su trabajo y no se desmorona después de cada nuevo mensaje. Para la integración de la IA en los procesos de desarrollo, esto es mucho más importante que otro comando cosmético.
Según las discusiones, hay otro paquete de funciones experimentales cerca: artifact, chronicle, code_mode, memories, multi_agent_v2, plugin_hooks, remote_control, runtime_metrics, unified_exec y otras. Todavía no he visto una lista oficial completa en la documentación formal, pero la dirección ya es inconfundible.
Lo que más me llamó la atención fueron tres cosas: goals, memories y multi_agent_v2. Si se integran correctamente, Codex comenzará a gestionar tareas de ingeniería largas no como un único asistente cansado, sino como un sistema con estado, subtareas y distribución de roles.
Impacto en el negocio y la automatización
Para los equipos, esto significa algo simple: algunas tareas podrán delegarse no 'para una sola respuesta', sino 'para llevarlas hasta el resultado final'. Migraciones, refactorización, gestión de la deuda técnica, preparación de PRs, procesamiento de archivos, verificación de configuraciones, todo se acerca más a la ejecución autónoma.
Ganarán aquellos que ya piensan en términos de arquitectura de IA, y no en términos de 'danos otro chat'. Perderán quienes implementen la función sin controlar el presupuesto, los permisos de acceso y el registro, porque un agente con un objetivo y un agente sin límites son bestias muy diferentes.
En Nahornyi AI Lab, resolvemos precisamente estos problemas para nuestros clientes: no solo activamos un interruptor experimental, sino que construimos un entorno seguro donde la automatización con IA realmente ahorra horas en lugar de crear nuevos riesgos. Si llevas tiempo queriendo automatizar revisiones de código, migraciones o flujos de trabajo de desarrollo internos, podemos analizarlo juntos y construir una solución de desarrollo de IA adaptada a tu proceso, no a una demostración llamativa.