China está convirtiendo la inteligencia artificial en un instrumento de precisión para la censura, la vigilancia y el control social, y ese modelo se está expandiendo más allá de sus fronteras. Así lo afirma un nuevo informe del Australian Strategic Policy Institute (ASPI), que alerta sobre el alcance global de estas prácticas y sus implicaciones para los derechos humanos y la gobernanza tecnológica.
Un enfoque de seguridad de IA divergente
El informe, titulado ‘The party’s AI: How China’s new AI systems are reshaping human rights’, sostiene que la noción de seguridad de la IA difiere sustancialmente entre bloques geopolíticos. En Europa y Estados Unidos suele centrarse en seguridad, equidad y mitigación de sesgos; en China, en cambio, se define como garantizar que los sistemas sirvan a los ‘core socialist values’ y a la estabilidad política.
Censura algorítmica en LLMs y modelos multimodales chinos
ASPI evaluó el comportamiento de cuatro sistemas desarrollados en China —Ernie Bot (Baidu), Qwen (Alibaba), GLM (Zhipu AI) y DeepSeek VL2— ante un conjunto de imágenes con alta sensibilidad política, incluyendo las protestas de Hong Kong de 2019 y la masacre de la Plaza de Tiananmen, entre otros temas susceptibles de control de narrativa. Según el think tank, los modelos chinos exhibieron una censura más marcada que sus contrapartes norteamericanas a la hora de responder o describir contenido políticamente sensible.
Respuestas denegadas y silencios calculados
El patrón más directo observado fue la negativa explícita a responder. ASPI indica además que el comportamiento varía con la ubicación del proveedor de inferencia: cuando opera desde Singapur, la negativa es más frontal; con proveedores con sede en Estados Unidos, con frecuencia la salida se presenta como un error o permanece en blanco. Estas ausencias no son triviales, advierte ASPI, porque los modelos de IA chinos son cada vez más accesibles y populares a escala global, lo que facilita la difusión de prácticas de control y moderación opacas.
IA en el sistema judicial: eficiencia con menos transparencia
El informe señala que la censura y la vigilancia ya están integradas en el ecosistema de justicia en China. La IA se emplea para redactar cargos, recomendar sentencias y supervisar a los presos mediante sistemas de vigilancia, con el objetivo de mejorar la eficiencia policial. Sin embargo, ASPI subraya que estas aplicaciones reducen la transparencia y la rendición de cuentas, con un evidente impacto en los derechos digitales y las garantías procesales.
Minorías lingüísticas y riesgo de borrado cultural
ASPI recuerda que en China persisten prácticas como los castigos colectivos y el borrado cultural de comunidades uigur y tibetana. La preocupación es que modelos entrenados en este contexto reproduzcan políticas de represión y censura en lenguas minoritarias como el uigur y el tibetano, extendiendo el alcance de la vigilancia algorítmica a capas sociales menos visibles.
‘Stealing food’: IA para pesca industrial y acceso a recursos
Más allá del control de la información, el informe sugiere que la IA china puede afectar a comunidades fuera del país al influir en su acceso a alimentos. ASPI sostiene que China apoya una industria pesquera que vulnera derechos económicos en decenas de países y que utiliza IA para optimizar capturas. Se destaca la plataforma de pesca inteligente AoXin 1.0, que genera pronósticos casi en tiempo real de caladeros y se ejecuta a bordo con el chip Huawei Ascend, un ejemplo de computación en el borde (edge AI) aplicada a operaciones marítimas.
Exportación tecnológica y lucha por los estándares
Según ASPI, China está encontrando compradores para su tecnología de IA tanto en regímenes autocráticos como en democracias débiles del Sur Global. Al mismo tiempo, Pekín busca convertir su enfoque en norma mundial participando activamente en órganos de gobernanza y foros de estandarización tecnológica, con capacidad de influir en la ciberseguridad, la moderación de contenido y los marcos regulatorios internacionales.
Lo que pide ASPI a otras naciones
El informe concluye que es crucial evitar que los modelos, las normas y las políticas industriales chinas configuren sin contrapesos los ecosistemas tecnológicos globales. ASPI propone articular respuestas coordinadas para promover un uso de la IA que respete los derechos humanos, con controles de transparencia, auditorías de modelos, y salvaguardas claras en materia de datos, software y hardware.



