Skip to main content
Agentic WebWebMCPAI-архитектура

WebMCP: Cómo el navegador convierte el sitio en una API para agentes IA

Google lanzó la vista previa de WebMCP para Chrome: los sitios pueden publicar funciones nativas para que los agentes de IA ejecuten acciones directamente en el navegador, sin scraping del DOM. Para las empresas, esto significa una automatización más fiable, pero exige nueva seguridad, UX de confirmación y optimización para agentes (AXO).

Contexto técnico: Qué aportó exactamente Chrome EPP

Analicé detenidamente la vista previa de WebMCP en Chrome (EPP) y vi la idea central: el sitio deja de ser una "página para leer" y se convierte en un conjunto de herramientas nativas que el agente invoca como funciones. No mediante adivinanzas del DOM ni OCR, sino a través de una API del navegador con argumentos validados.

El protocolo tiene dos caminos. La variante declarativa se conecta a <form> mediante atributos toolname/tooldescription, y el navegador construye el esquema JSON basándose en los campos. El camino imperativo es el registro de la herramienta desde JS: navigator.modelContext.registerTool() con nombre, descripción, esquema de entrada (JSON Schema / Zod) y un manejador async execute.

Lo que más me impacta no es la sintaxis, sino la ejecución: la llamada ocurre en el contexto de la sesión del usuario. Es decir, el agente trabaja con las mismas cookies/autorización, sin "re-login" y sin pasar tokens a integraciones de terceros.

Existen compuertas para acciones de riesgo: se puede solicitar confirmación explícita del usuario mediante mecanismos de interacción. Esto es crítico, porque "addToCart()" es trivial, pero "cancelOrder()" o "changeAddress()" entran en la zona de responsabilidad y cumplimiento normativo.

Impacto en el negocio y la automatización: quién gana y quién pierde

Si WebMCP se consolida, espero un cambio drástico en las prácticas de automatización con IA. Hasta ahora, los escenarios de agentes en el navegador se sostenían sobre capas frágiles: selectores, cambios de diseño, protección anti-bots, captchas e inestabilidad de modelos visuales. Aquí, el propio sitio le dice al agente: "estas son mis acciones, este es su contrato".

Ganarán las empresas con flujos transaccionales: e-commerce, viajes, bancos con autoservicio, portales B2B con pedidos y facturas. Donde el coste del error es alto, pasar del scraping a las llamadas de herramientas da un efecto medible: menos incidentes, menos revisiones manuales y mayor conversión en la finalización de tareas.

Perderán aquellos que ganaban dinero con "integraciones mediante parsing" y no puedan adaptarse rápido. También sufrirán los sitios que no ofrezcan un contrato de herramientas cómodo: los agentes empezarán a preferir competidores "agent-ready" simplemente porque les resulta más fácil y fiable completar la tarea.

En los proyectos de Nahornyi AI Lab, yo incluiría inmediatamente WebMCP como una nueva capa de arquitectura de soluciones de IA: junto a la API backend, el seguimiento de eventos y las políticas de seguridad. No es un reemplazo de su API, sino una forma de dar al agente la "palanca" correcta en el navegador, manteniendo el control en el producto y la seguridad.

Pero sin disciplina de ingeniería habrá dolor. Se necesitan esquemas, versionado de contratos, pruebas de flujos de herramientas, observabilidad (qué herramienta se llamó, con qué, qué respondió) y un trabajo separado en los "botones de confirmación", para no matar la UX pero tampoco abrir agujeros para abusos.

Análisis estratégico: AXO como nuevo embudo y qué haría yo ahora

El efecto más subestimado es la aparición de Agent Experience Optimization (AXO) como un mundo paralelo al SEO. Lo veo así: antes optimizabas la página para un robot indexador y un humano. Ahora tendrás que optimizar un conjunto de acciones para un agente que "compra", "transfiere", "verifica" o "tramita una devolución".

En mis implementaciones de IA casi siempre surge un problema: la lógica de negocio está dispersa entre el frontend, la analítica y el backend, y el agente necesita un camino corto y determinista. WebMCP empuja hacia una descomposición correcta: aislar intenciones (searchFlights, checkAvailability, createInvoice) y darles entradas/salidas estrictas.

Yo no esperaría a un "estándar en todos los navegadores". Elegiría 3–5 escenarios clave con el máximo ROI y comenzaría un prototipo: carrito/pago, verificación de estado, búsqueda/filtros, reserva, generación de documentos. Esto da una señal rápida de cómo cambia la conversión de flujos de agentes y cuánto soporte se ahorra.

Y una cosa más: WebMCP no es solo para clientes. Los portales internos (compras, almacén, mesa de ayuda) pueden convertirse en una capa instrumental para agentes corporativos sin abrir APIs peligrosas al exterior. Para muchas empresas, este es el camino más seguro para hacer la implementación de inteligencia artificial no en presentaciones, sino en operaciones diarias.

Este análisis fue preparado por Vadim Nahornyi, experto líder de Nahornyi AI Lab en arquitectura de IA y automatización agéntica en el sector real. Le ayudaré a diseñar la capa WebMCP/agent-ready: elegir escenarios, describir esquemas de herramientas, establecer seguridad y métricas, y luego llevarlo a producción. Escríbame: discutiremos su producto y trazaremos un plan de implementación de 2 a 6 semanas.

Share this article