Alerta: OpenAI detecta uso de ChatGPT en operaciones de difamación vinculadas a fuerzas de seguridad chinas
El Uso de ChatGPT en operaciones de difamación vuelve a situar a los Large Language Models en el centro del debate sobre abuso y seguridad. OpenAI afirma haber detectado a un usuario con vínculos con fuerzas de seguridad chinas que intentó emplear ChatGPT para planificar, coordinar y dar seguimiento a campañas de descrédito contra críticos del Partido Comunista Chino, incluyendo una operación dirigida contra la primera ministra japonesa Sanae Takaichi, según el último informe de la compañía sobre usos maliciosos de sus modelos.
De acuerdo con OpenAI, la cuenta fue bloqueada tras identificar prompts orientados a amplificar comentarios negativos en redes sociales, organizar narrativas de ataque y simular quejas mediante cuentas de correo falsas supuestamente pertenecientes a residentes extranjeros. La compañía sostiene que, cuando el modelo se negó a colaborar, el actor habría recurrido a modelos de otras empresas para ejecutar partes de la campaña y posteriormente regresó para pedir ayuda en la edición de “status reports” sobre lo que denominaba “cyber special operations”.
Uso de ChatGPT en operaciones de difamación: qué observó OpenAI
Según la información divulgada, OpenAI detectó que el actor no solo intentó generar contenido para desacreditar a una figura política, sino también producir documentación operativa. En particular, la compañía describe la generación de informes de estado que incluían objetivos (disidentes y críticos del gobierno chino), líneas de mensajes y detalles de ejecución. Un punto relevante para equipos de threat intelligence es que esos reportes reproducían la estructura del plan original y enumeraban áreas temáticas usadas para sostener la narrativa de ataque (por ejemplo, campañas de comentarios negativos y asociaciones políticas), lo que aporta trazabilidad sobre el ciclo completo de una operación de influencia.
Ben Nimmo, principal investigator del equipo de Intelligence and Investigations de OpenAI, encuadró estas actividades como “covert influence operations” y “transnational repression”, subrayando que el objetivo va más allá del trolling y busca presionar y silenciar críticos tanto dentro como fuera de China.
Señales de distribución limitada pero verificable
OpenAI también indicó haber encontrado evidencia de propagación de hashtags vinculados a la operación, con presencia en X y otras plataformas, aunque con bajo alcance y niveles mínimos de interacción. En términos de ciberseguridad, esto sugiere un despliegue de prueba o una campaña con baja efectividad orgánica, pero con indicadores útiles (IOCs “sociales”) para la atribución y el seguimiento de actividad coordinada.
De la desinformación a la presión psicológica
El informe describe que el actor extendió su actividad más allá de la propaganda, incluyendo tácticas de presión social y psicológica contra disidentes: ataques contra su salud mental, implicación de familiares, intentos de sabotaje de livestreams y denuncias masivas de cuentas por supuestas infracciones, en ocasiones respaldadas por “evidencias” fabricadas. En un ejemplo, OpenAI menciona la creación y distribución de un obituario falso y fotografías manipuladas para afirmar la muerte de un disidente, como parte de una estrategia de acoso y desmoralización.
En otro caso, el actor habría intentado lograr restricciones en X mediante reportes masivos y suplantación de identidad con cuentas falsas. OpenAI señala que, aunque no puede confirmar de forma independiente el envío o el impacto exacto de todos esos reportes, sí observó señales consistentes con la aparición de cuentas impostoras en resultados de búsqueda y restricciones sobre la cuenta objetivo en una fecha posterior.
Por qué el Uso de ChatGPT en operaciones de difamación importa para la industria
Para proveedores de AI y equipos de seguridad, el Uso de ChatGPT en operaciones de difamación ilustra un patrón técnico-operativo: los LLM pueden ser solicitados tanto para generar piezas de contenido como para estructurar la gestión de campañas (briefings, reportes, listas de tareas, marcos narrativos). Incluso cuando un modelo aplica políticas de rechazo, el actor puede usarlo como herramienta de “workflow”, edición o estandarización de documentación, y combinarlo con otros servicios para la ejecución.
OpenAI enmarca este caso dentro de un ecosistema más amplio de influence ops atribuidas previamente a actores basados en China, incluyendo campañas identificadas por investigadores como “Spamouflage”, y apunta a actividad “cross-internet” apoyada en identidades falsas y coordinación multi-plataforma.
La compañía ha publicado estos hallazgos dentro de su línea de transparencia sobre abuso y medidas de enforcement. Para contexto adicional, pueden consultarse fuentes primarias y documentación de referencia en OpenAI y reportes de amenazas de alta autoridad como el de Meta Transparency Center.
En conclusión, el Uso de ChatGPT en operaciones de difamación refuerza la tendencia de que las campañas de influencia modernas no dependen de una sola plataforma o herramienta: combinan automatización, suplantación, moderación adversarial y distribución multi-sitio, con los LLM como aceleradores de producción y coordinación, un reto directo para la detección, la atribución y la gobernanza de modelos en entornos abiertos.



