Nueva política de datos de Atlassian para entrenar IA: metadata obligatoria salvo Enterprise

Política de datos de Atlassian para entrenar IA aplicada a Jira y Confluence con recopilación de metadata por defecto

Nueva política de datos de Atlassian para entrenar IA: metadata obligatoria salvo Enterprise

Compartir:

Nueva política de datos de Atlassian para entrenar IA: metadata obligatoria salvo Enterprise

La política de datos de Atlassian para entrenar IA entrará en vigor el 17 de agosto de 2026 y cambia el equilibrio entre producto y privacidad en su ecosistema Cloud: la compañía recopilará por defecto metadata (y, según el plan, también in-app data) de clientes de Jira, Confluence y otros servicios para alimentar y mejorar sus modelos de Inteligencia Artificial, con capacidad de opt-out limitada y condiciones más favorables para el tier Enterprise.

Según la documentación y declaraciones de Atlassian, el objetivo es mejorar funciones de IA como la recuperación de resultados relevantes ante prompts, el resumen de contenido, la selección de plantillas y la optimización de workflows “agentic” para completar tareas multi-step con menos fricción. La compañía opera con una base aproximada de 300.000 clientes globales, por lo que el cambio tiene impacto directo en equipos de desarrollo, ITSM y gestión del conocimiento que dependen de estas plataformas.

Qué implica la política de datos de Atlassian para entrenar IA

La nueva política se apoya en dos categorías de información: metadata e in-app data. En el caso de la metadata, Atlassian incluye señales y métricas derivadas del uso y del contenido, como puntuaciones de legibilidad y complejidad en páginas de Confluence, clasificaciones de tareas (por ejemplo, “sales work item”), métricas de similitud semántica entre páginas y algunos valores introducidos en campos creados por Atlassian, como story points de un issue de Jira, la fecha de fin de un sprint o la SLA asociada a solicitudes en Jira Service Management.

El punto crítico: para clientes cuyo plan más alto activo sea Free, Standard o Premium, Atlassian indica que la contribución de metadata estará siempre activada y que no podrán desactivarla. La empresa afirma que esta metadata se usa de forma de-identified y aggregated antes de emplearse para mejorar productos y experiencias, eliminando identificadores directos como nombres y direcciones de email.

In-app data: qué contenido entra y cómo cambia por plan

La segunda categoría, in-app data, es el contenido generado dentro de la plataforma: títulos y cuerpo de páginas de Confluence, títulos, descripciones y comentarios de work items en Jira, nombres de emojis personalizados, nombres de estados personalizados y nombres de workflows personalizados, entre otros. Aquí Atlassian diferencia por nivel: en Free y Standard la recopilación de in-app data estará activada por defecto pero el cliente puede optar por desactivarla; en Premium y Enterprise estará desactivada por defecto.

Retención de datos y efectos tras el opt-out

Atlassian afirma que, una vez recopilada, la información podrá almacenarse hasta siete años para poder analizar tendencias a largo plazo y extraer observaciones más significativas. Tras la fecha de entrada en vigor, si un cliente desactiva la contribución o elimina sus apps, la compañía indica que eliminará el in-app data correspondiente de sus datasets en un plazo de 30 días y que, en un máximo de 90 días, re-entrenará los modelos que se hubieran entrenado con esos datos.

Clientes excluidos: claves gestionadas por el cliente y nubes especiales

Atlassian también detalla escenarios de exclusión total de “data contribution” (metadata o in-app data). Entre ellos figuran clientes que usan customer-managed keys o bring your own key (BYOK), entornos como Atlassian Government Cloud o Atlassian Isolated Cloud, así como ciertos clientes con requisitos de HIPAA compliance y algunos casos en sectores gubernamentales y de servicios financieros.

Por qué este cambio importa para IA empresarial y compliance

Más allá del discurso de “mejorar la experiencia”, la política de datos de Atlassian para entrenar IA introduce una asimetría clara: el opt-out completo no es universal y la recopilación de metadata queda atada al plan, lo que presiona a organizaciones con requisitos estrictos de privacidad, residencia de datos o auditoría a evaluar upgrades, arquitecturas de cifrado con claves propias o entornos aislados. Para el mercado, el movimiento refuerza una tendencia: la GenAI en SaaS se alimenta no solo de datasets externos, sino de señales operativas derivadas del trabajo diario de las organizaciones.

Atlassian centraliza los detalles de “data contribution” en su documentación oficial, incluyendo el tipo de datos que contribuye cada organización y las opciones por producto y plan. Para ampliar contexto o verificar definiciones, se pueden consultar fuentes de alta autoridad: Atlassian Support y el repositorio de políticas y prácticas de privacidad de la compañía en Atlassian Trust Center.

Con la cuenta atrás hacia el 17 de agosto, el debate no es solo técnico: es estratégico. La política de datos de Atlassian para entrenar IA redefine qué parte del “telemetry” y del contenido de trabajo puede convertirse en combustible para modelos, y qué nivel de control real conserva el cliente según el contrato que paga.

Compartir:

También podría interesarte

Déjanos tu comentario

Scroll al inicio