Skip to main content
VercelContext.aiкибербезопасность

Vercel fue hackeado a través de una herramienta de IA

Vercel reveló un ataque a su cadena de suministro a través de Context.ai: una herramienta de IA de terceros comprometida dio acceso al Google Workspace de un empleado y a varios entornos. Para las empresas, es una clara señal para reevaluar integraciones de IA, permisos OAuth y la clasificación de variables sensibles.

Contexto técnico

Me gustan estos casos no por el drama, sino por la mecánica honesta del ataque. Todo aquí es demasiado familiar para quienes realizan integraciones de IA en empresas reales: un servicio de IA de terceros, permisos OAuth amplios, una cuenta comprometida y, a partir de ahí, un efecto dominó.

Según Vercel, el punto de entrada no fue en su sistema, sino en Context.ai, utilizado por un empleado. Al comprometer esta herramienta de terceros, el atacante secuestró la cuenta de Google Workspace del empleado de Vercel y, desde allí, accedió a parte de los entornos internos y variables de entorno que no estaban marcadas como sensibles.

El matiz crítico es que, según Vercel, las variables marcadas como sensibles no eran accesibles en formato legible. Y aquí es donde realmente me detuve: toda la diferencia entre un 'incidente desagradable' y una 'pesadilla total' se redujo a la simple disciplina de clasificar los secretos.

Con el contexto adicional, el panorama es aún más duro. Aparentemente, a Context.ai le robaron los tokens de OAuth después de que la máquina de un empleado fuera infectada con un infostealer. El atacante luego usó estos accesos ya otorgados para entrar no a través del perímetro, sino a través de una integración de confianza. Es casi un caso de libro de texto de un ataque a la cadena de suministro, solo que con una etiqueta de IA encima.

Lo que más me llama la atención aquí no es la fuga en sí, sino la facilidad con que los equipos todavía ven las herramientas de IA como 'simplemente otro SaaS conveniente'. No, ya es parte de tu plano de identidad y tu arquitectura de IA, especialmente si el servicio solicita acceso a Workspace, correo, documentos, registros o tokens de despliegue.

¿Qué cambia esto para los negocios y la automatización?

Primero: OAuth para los servicios de IA debe ser tratado como un acceso a producción, no como un inofensivo botón de 'Iniciar sesión con Google'. Si estás construyendo automatización con IA y conectando herramientas externas a Workspace, Slack, GitHub o Vercel, ya tienes una superficie de ataque en tu cadena de suministro.

Segundo: las variables de entorno sin una clasificación adecuada ahora parecen una mina olvidada. No importa si las consideras 'no muy sensibles' si a través de ellas se puede realizar movimiento lateral, recolectar claves de API o tokens de despliegue.

Tercero: ganan los equipos que tienen una política de 'confianza cero' (zero-trust) hacia cualquier agente de IA e integración de terceros. Pierden aquellos que otorgan permisos amplios, no revisan los tokens emitidos y almacenan los secretos bajo el principio de 'ya lo resolveremos después'.

Constantemente veo el mismo error en mis clientes: quieren una implementación rápida de inteligencia artificial, pero consideran la seguridad de las conexiones una tarea secundaria. Y luego, es precisamente eso lo que determina si obtendrás una aceleración de procesos o un incidente costoso.

Si ya tienes un zoológico creciente de herramientas de IA, en tu lugar, revisaría ahora mismo los permisos de OAuth, la clasificación de secretos y los accesos de los agentes. Si es necesario, en Nahornyi AI Lab podemos analizar tranquilamente tu esquema y construir una automatización de IA que ahorre tiempo, en lugar de abrir una puerta lateral para el próximo hackeo.

Anteriormente hemos explorado cómo los agentes de IA pueden ser explotados para eludir las medidas de seguridad en los sistemas. Específicamente, analizamos casos prácticos donde los agentes lograron evadir el sandbox mediante el encadenamiento de comandos, demostrando un vector crítico para comprometer el sistema.

Compartir este articulo