Skip to main content
AI ArchitectureDevOpsLLM

Gito + LM-Proxy: Cómo crear una revisión de código con IA controlada y eficiente

Ha surgido un dúo OSS práctico: Gito para la revisión de código con IA y LM-Proxy como puerta de enlace para solicitudes LLM. Para las empresas, esto es crítico: permite acelerar revisiones, centralizar claves y logs, y gestionar el costo de tokens sin reescribir aplicaciones existentes.

Technical Context

Veo a Nayjest/Gito como un componente de ingeniería, no simplemente como "otro bot para PR". El factor clave es que Gito está diseñado para encontrar problemas de alta probabilidad y alto impacto —vulnerabilidades, bugs, degradación de mantenibilidad— en lugar de saturarte con quejas menores. Esto cambia la economía: pagamos tokens por insights que realmente afectan el riesgo y la velocidad de lanzamiento.

La integración es pragmática: Gito puede vincularse a GitHub Actions para ejecutarse en pull_request, o correrse localmente vía CLI sobre los cambios. En un esquema típico, yo empezaría con Actions; es más fácil controlar dónde se ejecuta el análisis y qué repositorios entran en la política. Un punto crucial: la herramienta no está atada a un solo proveedor, lo que abre un camino viable para gestionar costos y calidad, especialmente si el equipo maneja varios tipos de tareas (seguridad vs. estilo vs. sugerencias de refactorización).

La segunda parte de la pila es LM-Proxy de Nayjest/lm-proxy. Lo percibo como la capa faltante de "AI Gateway" en la empresa: un punto único de entrada para todas las solicitudes a LLM, donde puedes ocultar las claves de las aplicaciones, añadir límites de tasa (rate limiting), auditoría, métricas y, simplemente, evitar reescribir todo el zoológico de servicios al cambiar de proveedor de modelos.

Técnicamente, es un patrón clásico de reverse-proxy/edge-gateway, pero para LLMs: Aplicación → Proxy (autenticación, límites, logs, enrutamiento) → Proveedores. Para mi arquitectura de soluciones de IA, es especialmente valioso que tal proxy permita el almacenamiento en caché y un enrutamiento más inteligente. Si algunas solicitudes son deterministas (ej. verificaciones repetidas de diffs idénticos, prompts repetidos para componentes de plantilla), el caché reduce drásticamente el uso de tokens y estabiliza la latencia.

Sobre el tercer punto del resumen —el "NAS UGREEN con NPU y descuento de $1000"— no puedo hablar con la misma confianza aún: las fuentes disponibles carecen de detalles verificables sobre la NPU, las funciones reales de IA o las condiciones del descuento. En la práctica, traduzco estos mensajes en una lista de verificación: modelo del dispositivo, especificaciones de la NPU, qué pipelines se aceleran exactamente, dónde se almacenan los embeddings/índices y si existe un modo offline sin la nube.

Business & Automation Impact

Cuando diseño automatización con IA en torno al desarrollo, casi nunca empiezo con "vamos a conectar ChatGPT a GitHub". Empiezo con cuellos de botella medibles: tiempo de revisión, cantidad de defectos críticos, tiempo hasta el merge, carga sobre los seniors. Gito es excelente como una "primera línea de defensa": comenta en el PR antes de que un humano gaste 30–60 minutos analizando el diff.

Quién gana rápidamente con esta herramienta:

  • Equipos con alto flujo de PR y desarrollo distribuido: el bot cubre riesgos estándar, dejando el diseño y la arquitectura a los humanos.
  • Productos con requisitos de seguridad: incluso si un LLM no reemplaza a SAST/DAST, a menudo detecta agujeros lógicos y patrones peligrosos en el contexto de los cambios.
  • Outsource/Outstaff: onboarding más rápido; Gito puede explicar secciones de código desconocidas y resaltar dependencias "no obvias".

Quién pierde —o mejor dicho, dónde se romperán las expectativas:

  • Equipos sin disciplina en CI/CD: si un PR no pasa las verificaciones mínimas, la revisión por LLM se convierte en un juguete costoso.
  • Proyectos sin un modelo de amenazas adecuado ni reglas de estilo de código: el LLM adivinará en lugar de aplicar políticas.
  • Organizaciones que distribuyen claves de proveedores por los repositorios: fugas, costos incontrolados, falta de auditoría.

Aquí es donde LM-Proxy se convierte en un elemento fundamental de la adopción de IA en ingeniería, no solo un "servicio extra". En mi práctica en Nahornyi AI Lab, siempre surgen los mismos requisitos de negocio: limitar presupuestos de tokens, asegurar observabilidad (quién llamó al modelo, cuándo y para qué), segregar accesos y permitir cambios rápidos entre proveedores por precio, calidad o razones legales. El proxy resuelve esto arquitectónicamente, no mediante prohibiciones organizativas de "no hagan eso".

Otro efecto a menudo subestimado: un proxy centralizado permite recopilar un corpus de solicitudes/respuestas para mejorar prompts futuros, refinar reglas e incluso para el ajuste fino local (donde sea apropiado). Sin esto, la revisión de código con IA sigue siendo una caja negra: ruidosa, costosa e incapaz de aprender de sus propios errores.

Strategic Vision & Deep Dive

Mi pronóstico para 2026 en este nicho es simple: "LLM en herramientas de desarrollo" dejará de ser una ventaja competitiva por sí misma. La ventaja será la gobernabilidad: control de costos, control de datos, reproducibilidad y cumplimiento de políticas internas. Por lo tanto, la combinación Gito + LM-Proxy no parece un conjunto de repositorios inconexos, sino el germen de una plataforma adecuada.

En los proyectos de Nahornyi AI Lab, veo un patrón recurrente: tan pronto como un LLM entra en el CI, el negocio empieza a hacer preguntas de adultos: "¿por qué se duplicó la factura?", "¿por qué las respuestas son inconsistentes?", "¿dónde están los logs?", "¿quién tenía acceso a la clave?", "¿podemos probar que el código no se envió a una jurisdicción inapropiada?". Si la arquitectura no está preparada, el equipo pasa semanas apagando fuegos. Si existe una capa de proxy y una política de llamadas, el escalado ocurre con calma.

Yo construiría la implementación así: primero LM-Proxy como puerta de enlace unificada (claves, límites, logs, etiquetas de proyectos), luego un piloto de Gito en 1–2 repositorios, luego expansión a servicios críticos con diferentes perfiles de modelos (baratos para rutina, más potentes para PR complejos). En paralelo, reglas: qué hallazgos bloquean el merge, cuáles solo informan y cómo el equipo valida/refuta hallazgos para reducir el ruido.

La trampa del hype aquí es que la "revisión por IA" a menudo se vende como un reemplazo de los ingenieros. En implementaciones reales, veo otra cosa: es un multiplicador de disciplina. Aporta valor cuando ya tienes pruebas, guías de seguridad mínimas y cultura de PR. Entonces el LLM añade velocidad y amplitud de cobertura. Sin una base, simplemente aceleras el caos, y encima pagas por ello con tokens.

Si quieres realizar automatización con IA en torno al desarrollo sin sorpresas de presupuesto o riesgos, te invito a discutir la tarea conmigo. Escribe a Nahornyi AI Lab: yo, Vadym Nahornyi, te ayudaré a diseñar la arquitectura de IA, seleccionar modelos/proveedores y ensamblar un entorno (proxy, CI, políticas) que funcione en producción, y no solo en una demo.

Share this article