Contexto técnico
No voy a discutir sobre gustos. Si un agente en un pipeline tipo Codex levanta context7 por defecto y tarda minutos en hacerlo antes de empezar, para mí es una señal de alerta. En la AI automation, estos pequeños detalles se convierten en horas perdidas y respuestas extrañas.
Investigué el caso y la lógica es muy familiar: un servidor MCP externo trae documentación obsoleta, infla el contexto e impide que el modelo haga lo que ya sabe hacer: buscar información actualizada a través de la búsqueda integrada de GPT. Como resultado, el agente no soluciona el problema, sino que empieza a reinventar la rueda con confianza. Y en ese momento es cuando suelo pulsar el botón de parar.
El problema no es el MCP como idea. El problema es una mala configuración por defecto. Cuando se introduce ruido innecesario en el contexto de antemano, el modelo pierde el foco, piensa más tiempo, elige el camino equivocado con más frecuencia y le cuesta mantener la arquitectura de la solución.
Con context7 esto es especialmente notable si la fuente no se ha limpiado en mucho tiempo: fragmentos antiguos, ejemplos dudosos, duplicados, partes inútiles de la documentación. La propia búsqueda de GPT suele ser simplemente mejor para estas tareas ahora: recupera datos actualizados más rápido y no satura la ventana de contexto antes del primer token útil.
Técnicamente, la solución es aburrida, y esa es su ventaja: simplemente desactivaría context7 en la configuración del MCP o no cargaría este servidor en tiempo de ejecución para el agente de código. ¿Necesitas GitHub o una herramienta muy especializada? La mantenemos. ¿Necesitas una búsqueda general en la documentación? Primero dejaría que el modelo usara su búsqueda integrada, no una muleta externa.
Qué cambia esto para el negocio y la automatización
Ganan los equipos que necesitan un agente predecible, no magia con sorpresas. Se gastan menos tokens en basura, las respuestas llegan más rápido y el riesgo de que el agente reescriba un servicio en lugar de hacer una corrección puntual disminuye notablemente.
Solo pierden los pipelines antiguos donde las herramientas se añadían bajo el principio de «cuantas más, mejor». Esto no es AI integration, es sobrecargar el sistema. He visto muchas veces cómo un conjunto de herramientas excesivo perjudica más la calidad que un modelo débil.
En Nahornyi AI Lab, nos dedicamos a limpiar precisamente estos puntos: dónde un agente necesita herramientas reales y dónde es mejor no interferir. Si tu asistente de código es lento, genera soluciones extrañas o consume el presupuesto sin motivo, puedes desmontar el pipeline y construir un desarrollo de soluciones de IA sin este ruido. A veces, desactivar un solo context7 aporta más beneficios que otra actualización del modelo.