Technical Context
Analicé detenidamente Cloudflare Code Mode junto con MCP y reconocí una idea familiar: dar al modelo un «mini-runtime» para ejecutar lógica entre llamadas a herramientas. La diferencia es que Cloudflare lo ha empaquetado en un mecanismo estándar para su ecosistema —la sandbox de Workers— y lo ha vinculado al Model Context Protocol como una puerta de enlace unificada a las herramientas.
Como arquitecto, hay un punto específico que me llama la atención: Code Mode permite al LLM no solo elegir «una herramienta a la vez», sino generar código TypeScript que, dentro de una misma iteración del bucle agéntico, realiza ciclos, bifurcaciones, agregaciones y llamadas secuenciales a herramientas MCP. En la práctica, esto significa menos viajes de ida y vuelta (round-trips) al modelo y menos tokens gastados en «conversación» del tipo: llamé herramienta → obtuve salida → reenvíe → pido siguiente paso.
Estructuralmente, funciona así: el framework (Cloudflare Agents SDK) recibe un bloque de código del modelo (tras un marcador/formato especial), lo analiza como resultado estructurado y lo ejecuta en un entorno completamente aislado. La sandbox no tiene acceso directo a Internet, solo a las API de TypeScript vinculadas a herramientas publicadas a través de servidores MCP. Las llamadas a las herramientas van por RPC de vuelta al entorno del agente, y el resultado se devuelve mediante console.log() y un protocolo de intercambio controlado.
MCP aquí no es marketing, es el «bus». Las herramientas viven en servidores MCP (a menudo como Cloudflare Workers), y la autorización se maneja mediante OAuth 2.1 (con tokens opacos en su implementación). Para mí, esto elimina de inmediato una de las clases de riesgo más tóxicas: que el modelo «filtre» accidentalmente secretos en el código generado o en los logs. En Code Mode, las claves permanecen con el supervisor/runtime, y el LLM ve solo lo que se le permite mediante binding.
Otro detalle de ingeniería que ahorra tiempo al desarrollar soluciones de IA: Cloudflare sanitiza automáticamente los nombres de las herramientas MCP en identificadores JS válidos. Es un detalle menor, pero estas cosas importan cuando tienes más de 50 herramientas y no quieres mantener una capa de compatibilidad manualmente.
Business & Automation Impact
En mis proyectos de «Automatización con IA», las cosas suelen fallar no por la calidad del modelo, sino por la mecánica de ejecución: dónde vive la lógica, cómo activar sistemas externos de forma segura y cómo no inflar los costos con tokens. Code Mode ataca exactamente estos tres puntos, especialmente si tu agente realiza cadenas de 5 a 30 acciones: CRM → ERP → Almacén → Facturación → Notificaciones.
¿Quién gana primero? Los equipos que ya están construyendo procesos agénticos alrededor de herramientas y sufren el «ping-pong de herramientas». Cuando la orquestación compleja se traslada a TypeScript en una sandbox, al modelo solo regresa el resultado final (o datos intermedios comprimidos). Esto cambia la economía: menos tokens, menor latencia y menos fugas accidentales de contexto en los prompts.
¿Quién pierde? Aquellos que invirtieron en orquestadores de contenedores personalizados para la ejecución de código (como en su comparación con «openai containers»). Yo mismo he visto tales implementaciones: levantar un Docker efímero, inyectar archivos de contexto y ejecutar código mientras dure el bucle del agente. Funciona, pero es costoso de operar: infraestructura, arranque en frío (cold start), seguridad, políticas de red, secretos, auditoría. Cloudflare básicamente dice: «No hagas tu propio orquestador de contenedores, toma el aislamiento de Workers y MCP como contrato».
Pero no lo llamaría un «asesino de contenedores». Si un agente necesita una carga computacional pesada (por ejemplo, procesamiento local de archivos grandes, binarios específicos, inferencia de ML fuera de SaaS), el contenedor sigue siendo más lógico. Code Mode es para orquestación y control, no para HPC. En el sector real, esto significa que el esquema típico será híbrido:
- Code Mode — para lógica de control, integraciones, enrutamiento, normalización de datos y validación de reglas.
- Servicios Dedicados/Contenedores — para tareas pesadas (ETL, visión por computadora en video, optimización, simulaciones).
Desde la perspectiva de la «Implementación de IA», la principal ganancia es reducir la barrera para una integración segura. Cuando despliego escenarios de agentes en empresas, la conversación rápidamente llega a temas de seguridad: «¿a dónde van las claves?», «¿puede el LLM hacer peticiones HTTP arbitrarias?», «¿cómo restringimos el acceso a herramientas por roles?». En Code Mode, las respuestas son formales: no hay internet directo, acceso solo a través de APIs vinculadas, OAuth proporciona identidad rastreable y no es necesario pasar secretos al modelo.
Al mismo tiempo, aparece una nueva zona de responsabilidad: diseñar correctamente las herramientas MCP. Si una herramienta devuelve demasiados datos, simplemente trasladas el problema de los tokens al siguiente paso. En Nahornyi AI Lab, suelo diseñar herramientas para que devuelvan agregados y «hechos compactos», no tablas crudas. Code Mode hace que este enfoque sea aún más importante: cuanto más inteligentes sean tus herramientas, menos «inteligencia» tendrás que comprarle al LLM.
Strategic Vision & Deep Dive
Creo que Cloudflare con este lanzamiento empuja al mercado hacia una nueva norma: un agente no es un chatbot con funciones, sino un compilador de orquestación que escribe un código pequeño para una tarea específica y lo ejecuta en un entorno controlado. MCP en este panorama se convierte en un análogo de los «drivers»: un contrato, muchos sistemas conectables.
Un efecto no obvio para la arquitectura de soluciones de IA: cambia la granularidad de las integraciones. Antes, solía hacer una capa de integración «gruesa» (motor de flujos de trabajo, colas, motor de reglas separado) y dejaba al modelo elegir el siguiente paso. Con Code Mode, parte de la lógica se puede trasladar de forma segura y rápida a código ejecutable dentro del ciclo del agente sin perder control. Esto reduce potencialmente la cantidad de componentes a mantener, especialmente en MVPs y pilotos.
También hay trampas. La primera es la tentación de dar demasiada libertad al modelo, esperando que la sandbox salve de todo. La sandbox limitará la red y las claves, pero no salvará de errores de negocio: cargos incorrectos, estados de pedido erróneos, desajuste de datos entre ERP y CRM. Por eso, siempre separo las herramientas de «lectura» de las de «escritura», añadiendo comprobaciones obligatorias, límites, idempotencia y registros. Code Mode simplifica la ejecución, pero no anula la disciplina de diseño.
La segunda es la madurez del ecosistema MCP. Sí, el estándar es abierto, pero la compatibilidad real y el «mercado de servidores MCP» aún se están formando. Yo planificaría la posibilidad de mantener parte de las herramientas en el stack de Cloudflare y parte en servicios propios, conservando un contrato MCP único y controlando la latencia por regiones.
Mi pronóstico: en 2026–2027 aparecerá una división en dos capas: «runtime de agente seguro» (como Code Mode) y «paquete de herramientas MCP por industria» (logística, manufactura, finanzas). Ganarán aquellos que aprendan no solo a conectar LLMs, sino a construir una arquitectura repetible: herramientas → política de acceso → observabilidad → costo. El hype estará alrededor de los «agentes», pero el valor está en qué tan aburrida y confiablemente funciona esto un viernes por la noche al cierre del turno.
Si quieres realizar automatización con IA en escenarios de agentes y no ahogarte en contenedores personalizados, políticas de secretos y llamadas a herramientas caóticas, te invito a discutir tu arquitectura. Escribe a Nahornyi AI Lab; yo, Vadym Nahornyi, realizaré la consulta personalmente y propondré un plan de implementación con riesgos claros, presupuesto y puntos de control.