Skip to main content
Prompt EngineeringAI-архитектураАвтоматизация

Skill Prompts vs LangGraph: Cómo Cambia la Automatización con IA y sus Trampas

Los desarrolladores están abandonando los orquestadores pesados como LangGraph en favor de skill prompts: habilidades modulares con entradas claras. La razón es que los modelos modernos ya pueden descomponer tareas y usar herramientas por sí mismos, lo que ofrece a las empresas mayor velocidad, menores costes y un mantenimiento más eficiente.

Technical Context

No veo este cambio como una "moda de prompts", sino como una reacción a la evolución real de los modelos: se han vuelto lo suficientemente fuertes como para absorber gran parte de lo que antes hacían los grafos y orquestadores. Cuando en proyectos veo cadenas de LangGraph de 30–60 nodos o escenarios en n8n, casi siempre encuentro patrones repetitivos: dividir la tarea, consultar 2–3 fuentes, formar una respuesta, autoverificarse y devolver el resultado. Hoy, esto se puede empaquetar en 4–8 "habilidades" modulares (skill prompts) y gestionarlas mediante el uso nativo de herramientas (function calling).

Lo que me atrae como arquitecto es que los skill prompts no son un "prompt monolítico para todo", sino un conjunto de minicontratos. Cada habilidad tiene un rol, un formato de entrada, un formato de salida, criterios de calidad y política de errores. Internamente, suelo usar un marcado estricto (JSON/XML) y requisitos de determinismo: por ejemplo, "devuelve solo JSON según el esquema" o "si faltan datos, solicítalos mediante el campo missing_fields". Este enfoque está más cerca de las interfaces en código que de la ingeniería de prompts clásica.

Los impulsores técnicos son claros en la práctica. Las grandes ventanas de contexto permiten mantener en memoria instrucciones de trabajo, ejemplos e historial; el razonamiento mejorado reduce la necesidad de un "planificador" externo; y las llamadas nativas a herramientas (BD, búsqueda, API de ERP/CRM, ejecución de código) resuelven la razón principal de la existencia de los frameworks de agentes: la necesidad de realizar acciones fiables en el mundo real. Cada vez construyo más cadenas así: una meta-habilidad "Plan" genera una secuencia de habilidades, luego el modelo llama a las herramientas según esquemas por sí mismo, y una habilidad final "Validate" realiza una autoverificación y genera un informe de confianza.

Al mismo tiempo, "monoprompt → skill prompts" es para mí una analogía casi literal de "monolito → microservicios", pero con una advertencia: las habilidades no deben convertirse en "microservicios por el mero hecho de serlo". Si una habilidad no se puede reutilizar en al menos dos escenarios o no mejora la observabilidad/control, no la aíslo. Una fragmentación excesiva aumentará el número de llamadas al modelo y el coste, mientras que una demasiado grande nos devolverá al prompt monolítico difícil de probar y versionar.

Business & Automation Impact

Desde el punto de vista de la IA, la automatización gana en tres áreas a la vez: velocidad de desarrollo, coste de los cambios y control de calidad. Cuando el negocio pide "añadir otra fuente de datos" o "cambiar el formato del informe", en los orquestadores basados en grafos esto suele convertirse en una refactorización de nodos, estados y transiciones. En los skill prompts, cambio una habilidad (por ejemplo, "FetchData") o añado una nueva sin tocar el resto. Esto reduce drásticamente el tiempo de modificación, y es exactamente por lo que paga el sector real.

¿Quién gana? Los equipos que necesitan una iteración rápida: ventas, compras, logística, servicios de asistencia técnica y centros internos de competencia, donde el 80% de las tareas son texto + acceso a 2–5 sistemas. Allí, la implementación de inteligencia artificial se acerca más a la ingeniería de procesos: "qué habilidades se necesitan", "qué datos están disponibles", "cuáles son las políticas de seguridad". Pierden aquellos que invirtieron en una infraestructura de agentes compleja sin una métrica de negocio clara: mantener grafos por el simple hecho de tenerlos se vuelve caro, especialmente cuando el modelo ya sabe planificar y llamar herramientas por sí mismo.

Pero no compro la tesis de que "los orquestadores ya no son necesarios". En producción, constantemente me topo con cosas que el modelo no debe resolver de forma autónoma: control de transacciones, límites de riesgo, idempotencia, deduplicación, SLA, colas, reintentos y auditoría. Si tu cadena de acciones afecta dinero, stock, documentos legales o datos personales, necesitas un circuito de control externo; que sea más ligero que LangGraph, pero debe existir. En la práctica en Nahornyi AI Lab, hago un híbrido: las habilidades viven como prompts con control de versiones y tests, y la orquestación es mínima, basada en eventos, con "puertas" estrictas y registro.

Otro cambio para el negocio es una nueva disciplina de mantenimiento. Aparecerán requisitos de "refactorización de prompts monolíticos a habilidades" tan inevitablemente como aparecieron los requisitos de dividir aplicaciones monolíticas. Ya estoy incorporando en la arquitectura de IA de los proyectos un catálogo de habilidades: nomenclatura, versionado semántico, política de obsolescencia, conjunto de casos de prueba de referencia y métricas de calidad (precisión de extracción, porcentaje de respuestas rechazadas, coste medio por caso).

Strategic Vision & Deep Dive

Mi conclusión no evidente: los skill prompts no tratan de ser "más simples", sino de transferir la complejidad. Esta se mueve de los grafos y nodos a la capa de contratos, datos y observabilidad. Si las habilidades no tienen esquemas de E/S estrictos, si no hay comprobaciones de validez, si no hay política de "qué hacer ante la incertidumbre", obtendrás un prototipo bonito y una producción caótica. Por eso trato las habilidades como artefactos de producto: deben probarse, compararse, recoger telemetría y poder revertirse.

En los proyectos de Nahornyi AI Lab, veo regularmente el mismo patrón de fracaso: la empresa quiere "quitar LangGraph y dejar solo prompts", pero no está lista para invertir en la capa de datos. Las habilidades empiezan a "adivinar" en lugar de basarse en fuentes de verdad, y la calidad se degrada. Los skill prompts funcionan excelente cuando el modelo tiene herramientas y el contexto adecuado: directorios, políticas, estados actuales de pedidos, permisos de usuario, registro de acciones. Sin esto, las "capacidades nativas del modelo" se convierten en un costoso generador de suposiciones.

La segunda trampa es la economía de tokens y llamadas. La división en habilidades reduce la carga cognitiva, pero puede aumentar el número de solicitudes al modelo. Optimizo esto mediante "paquetización": una llamada realiza la planificación + formación de parámetros para 2–3 llamadas a herramientas, luego una llamada separada realiza la síntesis y validación. Como resultado, obtenemos tanto modularidad como un coste predecible. Esta es la arquitectura de soluciones de IA que soporta los marcos financieros, no solo las demostraciones.

Mi pronóstico para 12–18 meses: el mercado pasará de "prompt engineering" a "workflow engineering"; las habilidades se convertirán en material de construcción estándar, y la ventaja competitiva no será el número de agentes, sino la calidad de los contratos, pruebas, conjuntos de datos para validación y la integración de la inteligencia artificial con sistemas reales. El hype terminará donde comienza la auditoría y la responsabilidad; la utilidad permanecerá con aquellos que construyen circuitos de ejecución predecibles, no diálogos mágicos.

Si desea migrar sus monoprompts o grafos pesados a skill prompts sin perder fiabilidad, le invito a discutir la tarea conmigo. Escriba a Nahornyi AI Lab: yo, Vadym Nahornyi, analizaré su proceso, propondré una arquitectura de IA objetivo y un plan de implementación de IA con métricas, seguridad y cálculo de costes.

Share this article