Política de IA en HackerOne: ajusta sus Términos tras dudas sobre entrenamiento con reportes
La política de IA en HackerOne sobre entrenamiento con reportes vuelve al centro del debate en el ecosistema de bug bounty después de que la plataforma confirmara que está “actualizando” sus Términos y Condiciones tras críticas de investigadores sobre si sus submissions podrían estar alimentando sistemas de Generative AI. El movimiento llega semanas después del anuncio de Agentic PTaaS, una oferta que promete validación continua combinando “autonomous agent execution” con revisión humana experta.
El origen de la controversia fue el propio posicionamiento de producto: HackerOne indicó que sus agentes “are trained and refined using proprietary exploit intelligence informed by years of testing real enterprise systems”, una frase que algunos investigadores interpretaron como posible reutilización de reportes o información derivada de hallazgos entregados en programas de terceros.
Qué dice HackerOne sobre la política de IA y el uso de reportes
En una declaración pública, la CEO Kara Sprague negó explícitamente que la empresa entrene modelos de Generative AI con información sensible aportada por investigadores o clientes. Según su explicación, HackerOne “does not train generative AI models, internally or through third-party providers, on researcher submissions or customer confidential data”. También añadió que las submissions no se usan para “train, fine-tune, or otherwise improve” modelos GenAI y que, además, los proveedores externos no tienen permitido retener ni usar esos datos para su propio entrenamiento.
La directiva enmarcó a Hai (su sistema agentic AI) como una pieza orientada a acelerar flujos operativos como triage, validación de reportes, confirmación de fixes y pagos de recompensas, insistiendo en que los investigadores “are not inputs” y que el objetivo es complementar, no reemplazar, su trabajo.
Por qué la política de IA en HackerOne sobre entrenamiento con reportes preocupa al sector
La política de IA en HackerOne sobre entrenamiento con reportes es relevante por un motivo estructural: los reportes de bug bounty suelen contener pruebas de concepto, cadenas de explotación, contexto de impacto y detalles del entorno del cliente, materiales que pueden ser especialmente valiosos para mejorar sistemas automatizados de análisis ofensivo/defensivo. En un mercado que se está moviendo hacia servicios “continuous” y “agentic”, la frontera entre automatización de proceso (por ejemplo, clasificación, deduplicación y verificación) y entrenamiento de modelos (fine-tuning o aprendizaje a partir de datos) es una línea que los investigadores quieren ver definida contractualmente, no solo comunicada en redes.
La inquietud también es económica y de confianza: si los hallazgos terminan reforzando sistemas que reduzcan demanda de investigación humana o que capturen valor sin mecanismos claros de atribución, el incentivo del modelo de recompensas puede erosionarse. Por eso, las condiciones de uso y la gobernanza de datos se han convertido en un tema competitivo entre plataformas.
Reacciones y contexto: otras plataformas endurecen mensajes sobre datos y GenAI
El episodio llevó a que otras compañías del sector reforzaran públicamente su postura sobre propiedad de trabajo y uso de datos. Intigriti, por ejemplo, comunicó a investigadores que “You own your work” y que aplican AI buscando “mutual benefit” entre clientes e investigadores, enfatizando el papel humano en vulnerabilidades complejas. Bugcrowd, por su parte, publica condiciones donde afirma que no permite a terceros entrenar LLM o sistemas de Generative AI con datos de clientes o investigadores, y recalca que el uso de GenAI por investigadores no exime del cumplimiento estricto de reglas, scope y verificación.
En el caso de HackerOne, el matiz clave es que la compañía habla de no entrenar “generative AI models” con submissions o datos confidenciales, mientras que el producto Agentic PTaaS se apoya en “exploit intelligence” acumulada. La actualización de Ts&Cs busca, precisamente, reducir ambigüedades entre lenguaje de marketing, definiciones técnicas y permisos contractuales.
Fuentes oficiales y enlaces de referencia
- HackerOne (sitio oficial)
- Anuncio oficial de Agentic PTaaS de HackerOne
- Bugcrowd: AI Privacy & Security (documentación oficial)
A medida que los servicios de pentesting evolucionan hacia arquitecturas “agentic” y flujos continuos, la política de IA en HackerOne sobre entrenamiento con reportes se convierte en un indicador de confianza para investigadores, clientes enterprise y partners: el mercado ya no solo compite por volumen de programas, sino por claridad contractual, aislamiento de datos y garantías verificables sobre el uso de información sensible.



