Cambio en GitHub Copilot: el entrenamiento con datos de interacción será opt-out desde el 24 de abril

Impacto del entrenamiento en GitHub Copilot con datos de interacción en privacidad y repositorios privados

Cambio en GitHub Copilot: el entrenamiento con datos de interacción será opt-out desde el 24 de abril

Compartir:

Cambio en GitHub Copilot: el entrenamiento con datos de interacción será opt-out desde el 24 de abril

GitHub (Microsoft) confirmó que activará el entrenamiento en GitHub Copilot con datos de interacción a partir del 24 de abril para cuentas Copilot Free, Pro y Pro+, utilizando información de uso como entradas, salidas, fragmentos de código y contexto asociado. El movimiento eleva la relevancia del debate sobre privacidad en herramientas de AI-assisted coding y afecta directamente a equipos que trabajan con repositorios privados si mantienen habilitada la opción.

Según la actualización oficial, Copilot Business y Copilot Enterprise quedan excluidos por condiciones contractuales, y también se indica que estudiantes y docentes que acceden a Copilot no estarán sujetos a este cambio. En el resto de planes de consumo, la base pasa a ser opt-out: los usuarios deberán desactivar manualmente la opción de uso de datos para entrenamiento.

Entrenamiento en GitHub Copilot con datos de interacción: qué cambia y desde cuándo

La política entra en vigor el 24 de abril y se centra en “customer interaction data”, un conjunto de señales derivadas del uso del producto. GitHub justifica la medida afirmando que este tipo de datos mejora el rendimiento de sus modelos, con métricas internas como mayor “acceptance rate” de sugerencias tras usar interacción de empleados de Microsoft para ajustes y mejoras.

La compañía explica el cambio en su comunicación corporativa y enlaza a una entrada de producto donde detalla el enfoque y los controles de privacidad. Fuente: GitHub Blog.

Qué datos incluye la recopilación para entrenamiento

GitHub enumera categorías concretas que pueden ser recolectadas cuando el usuario interactúa con Copilot, incluyendo señales que van más allá de un simple prompt. Entre los elementos citados están:

  • Outputs del modelo aceptados o modificados por el usuario.
  • Inputs al modelo, incluyendo fragmentos de código mostrados.
  • Contexto de código alrededor de la posición del cursor.
  • Comentarios y documentación escritos por el usuario.
  • Nombres de archivos y estructura del repositorio.
  • Interacciones con features de Copilot, como chat.
  • Feedback explícito (por ejemplo, valoraciones tipo thumbs up/down).

Implicaciones para repositorios privados y confidencialidad

Uno de los puntos más sensibles del cambio es el alcance sobre repositorios privados. GitHub aclara en sus FAQs que, si el usuario tiene habilitado el entrenamiento, se pueden recopilar fragmentos de código desde repositorios privados mientras la persona usa activamente Copilot en ese repositorio. Este matiz redefine en la práctica el perímetro de lo “private” cuando se emplean asistentes de código conectados a servicios en la nube.

Para entender el encuadre de GitHub sobre visibilidad y acceso a repositorios, referencia: GitHub Docs.

Cómo se aplica el opt-out y qué deben revisar las organizaciones

Aunque el cambio se dirige a planes Free, Pro y Pro+, el impacto real puede extenderse a entornos profesionales donde conviven cuentas personales con activos corporativos, especialmente en escenarios BYOD, uso de repositorios privados personales para trabajo, o colaboración con múltiples identidades. La opción para desactivar el entrenamiento en GitHub Copilot con datos de interacción se gestiona desde los ajustes de Copilot, en la sección de privacidad, desmarcando el permiso de uso de datos para entrenamiento.

GitHub enmarca la medida como alineada con “industry practices” de enfoque opt-out en el mercado estadounidense, en contraste con modelos opt-in más habituales en ciertos marcos europeos. En paralelo, cita que otros actores del ecosistema han comunicado políticas similares de uso de datos en productos de consumo, incluyendo a su matriz Microsoft. Referencia corporativa: Microsoft Copilot Blog.

Contexto: el entrenamiento con código ya es parte del debate en AI coding

El anuncio llega en un contexto en el que gran parte de la industria ya reconoce que los modelos para programación se han beneficiado históricamente de grandes corpus de código. GitHub Copilot se ha asociado públicamente al linaje de modelos como Codex, descrito como un modelo GPT ajustado con código disponible públicamente. Referencia técnica: arXiv (OpenAI Codex).

En términos de percepción, el cambio ha generado reacciones críticas en discusiones de la comunidad de GitHub, con señales mayoritariamente negativas en votos y comentarios, y escaso respaldo explícito dentro de los hilos públicos.

Qué esperar a corto plazo

A medida que se consoliden flujos de trabajo con asistentes como Copilot, la política de datos se convierte en un parámetro operativo más: compliance, acuerdos con terceros, clasificación de información y evaluación de riesgos de fuga de IP. Para usuarios de consumo, el elemento decisivo será si mantienen habilitado el ajuste de privacidad; para empresas, la atención se centra en evitar que cuentas no cubiertas por contrato introduzcan datos sensibles en superficies de entrenamiento.

En definitiva, el entrenamiento en GitHub Copilot con datos de interacción se normaliza como configuración por defecto en planes de consumo desde el 24 de abril, reforzando una tendencia del mercado: más rendimiento y personalización, a cambio de ampliar la huella de datos derivada de la interacción con herramientas de IA.

Compartir:

Déjanos tu comentario

Scroll al inicio