Skip to main content
githubcopilotprivacy

GitHub Copilot cambia sus reglas sobre el uso de código privado

GitHub actualizó las reglas de Copilot. Para usuarios de Free, Pro y Pro+, los datos de interacción con la IA, incluyendo fragmentos de código y contexto de repositorios privados, pueden usarse para entrenar modelos. No se entrena con el repositorio completo, pero es crucial revisar la opción de exclusión antes del 24 de abril.

¿Qué cambió GitHub exactamente?

En lugar de basarme en resúmenes, fui directamente a las palabras de GitHub, porque un titular como «GitHub entrenará sus modelos con tus repositorios privados» suena mucho más alarmante que la realidad. De hecho, no se trata de que GitHub vaya a empezar a escanear todos tus repositorios privados para añadirlos a un dataset.

El cambio se refiere a los datos de interacción en Copilot. Es decir, lo que se genera durante el trabajo: prompts, sugerencias, fragmentos de código y el contexto que Copilot recibe en la sesión. Si eres usuario de Copilot Free, Pro o Pro+, estos datos pueden ser utilizados para mejorar los modelos, a menos que desactives explícitamente esta opción antes del 24 de abril de 2026.

Y aquí está la distinción crucial. GitHub no declara que vaya a usar el código de repositorios privados en reposo (private repo code at rest), es decir, el contenido de tu repositorio privado como tal. Esto es bastante más suave que la alarmante tesis de los debates en Hacker News.

Otro matiz: esto no aplica a Copilot Business y Enterprise. Para los planes corporativos las reglas son diferentes, y esta actualización afecta principalmente a las cuentas individuales. Si tu equipo trabaja con código de clientes usando cuentas personales Pro, es un buen motivo para revisar la configuración hoy mismo.

Según la navegación actual, debes revisar la configuración de las funciones de Copilot. El enlace que se comparte en los foros lleva al lugar donde se puede revisar esta opción. Yo no me fiaría de las viejas promesas de GitHub de 2024: la política ya ha cambiado y ahora hay que leer los detalles literalmente.

Por qué no es un asunto menor para las empresas

A nivel personal, la noticia puede no parecer tan grave. ¿Y qué si no es todo el repositorio, sino solo los datos de interacción? Pero si lo miro como un ingeniero que diseña arquitecturas de IA para sistemas de clientes, el panorama se vuelve mucho menos cómodo.

En el desarrollo real, a través de Copilot a menudo pasan fragmentos sensibles: SQL con nombres de tablas, APIs internas, lógica de dominio, trozos de código de infraestructura, comentarios con contexto de negocio. Formalmente, son «datos de interacción», pero en esencia, ahí puede estar la mitad del plano de tu producto.

Por eso, aquí ganan quienes ya tienen una disciplina en cuanto a accesos, planes y políticas de uso de asistentes. Pierden los equipos donde los desarrolladores usan sus cuentas personales de Copilot en repositorios privados del trabajo de forma espontánea, mientras la dirección piensa que «la automatización con IA por ahora es solo para comodidad de los programadores».

En Nahornyi AI Lab veo constantemente lo mismo: la implementación de IA no falla por los modelos, sino por la gestión de datos. La gente pasa semanas eligiendo un LLM, pero no sabe qué datos realmente salen al exterior, quién lo activó y en qué cuentas.

Si ya estás implementando inteligencia artificial en tu desarrollo, yo verificaría tres cosas. Primero: qué planes de Copilot se están utilizando, personales o corporativos. Segundo: si está activada la exclusión voluntaria (opt-out) para el entrenamiento de modelos. Tercero: qué reglas internas existen para trabajar con código privado, tickets y secretos de infraestructura en herramientas de IA.

Y esto ya no se trata solo de GitHub. Es una integración de IA madura y profesional: entender dónde ayuda el modelo, dónde crece la productividad y dónde empieza una fuga de contexto a través de una interfaz cómoda.

Mi conclusión personal es esta: no hay motivo para entrar en pánico, pero tampoco para ignorarlo. La frase «no es para tanto» es bastante justa, si se entienden los límites. No todo tu repositorio privado se va a usar para entrenar, pero fragmentos de tu contexto de trabajo de las sesiones de Copilot para usuarios individuales bien podrían acabar allí.

Este análisis lo he hecho yo, Vadim Nahornyi de Nahornyi AI Lab. Construyo soluciones de IA a medida para empresas, diseño automatización con IA y normalmente no empiezo con una demo bonita, sino con la pregunta: ¿qué datos fluyen y hacia dónde realmente?

Si quieres, puedo ayudarte a analizar rápidamente tu caso: Copilot, políticas de acceso, implementación segura de IA o la arquitectura de herramientas internas de IA. Escribe a Nahornyi AI Lab y analizaremos tu proyecto sin la niebla del marketing.

Compartir este articulo