Regulación en China: borrador veta “familiares” AI para acompañar a mayores

China veta familiares AI para acompañar a mayores en servicios de AI companions con interacción emocional y requisitos de seguridad y privacidad.

Regulación en China: borrador veta “familiares” AI para acompañar a mayores

Compartir:

Regulación en China: borrador veta “familiares” AI para acompañar a mayores

China veta familiares AI para acompañar a mayores: la Cyberspace Administration of China (CAC) publicó un borrador de normas para AI companions con “humanized interactive services” que, entre otras restricciones, prohíbe ofrecer servicios que simulen parientes o relaciones específicas de usuarios de edad avanzada. El movimiento anticipa un nuevo marco de cumplimiento para proveedores de modelos y aplicaciones de interacción emocional, con impacto directo en diseño de producto, retención de datos y gobernanza de riesgo.

China veta familiares AI para acompañar a mayores: qué prohíbe el borrador

El texto, titulado “Interim Measures for the Administration of Humanized Interactive Services Based on Artificial Intelligence”, plantea que estos sistemas deben desarrollarse de forma “saludable” cuando están diseñados para interactuar emocionalmente con humanos. En el apartado dedicado a personas mayores, establece dos obligaciones clave: guiar al usuario para configurar un contacto de emergencia y notificar a dicho contacto si se detecta riesgo para la vida, salud o patrimonio durante el uso del servicio, además de proporcionar canales de asistencia social, psicológica o de emergencia.

La línea roja más explícita es la prohibición de “proporcionar servicios que simulen a los familiares o relaciones específicas de usuarios ancianos”. En la práctica, esto apunta a productos que recrean voz, personalidad o comportamiento de un hijo, pareja u otro familiar mediante clonación de voz, avatares, chatbots personalizados o “digital twins” orientados a acompañamiento.

Recordatorios obligatorios y gestión operativa

El borrador también exige que el sistema recuerde al usuario, cada dos horas, que no está interactuando con un humano. Además, obliga a los proveedores a avisar con antelación de interrupciones del servicio, elevando el listón de comunicación operativa y continuidad para productos que pueden convertirse en un soporte emocional recurrente.

Seguridad, datos y prevención de dependencia: el paquete de cumplimiento

Como en otras regulaciones tecnológicas chinas, el borrador añade requisitos de seguridad, cifrado y mitigación de fraude, y demanda que el comportamiento del sistema refleje “core socialist values”. También introduce obligaciones de controles parentales y protección específica de datos de menores.

En términos de seguridad psicológica y diseño, el texto incorpora un lenguaje poco habitual en normativas técnicas tradicionales: pide “mental health protection”, “emotional boundary guidance” y “dependency risk warning”, y prohíbe que el producto tenga como objetivos de diseño sustituir la interacción social, controlar la psicología del usuario o inducir adicción. Esto puede traducirse en cambios de UX, métricas de engagement y guardrails de conversación en apps de AI companions.

Restricción sobre entrenamiento con datos de interacción

El borrador también prohíbe utilizar los datos recogidos durante la interacción con AI companions para entrenar modelos, lo que tensiona estrategias habituales de mejora continua basadas en conversaciones reales, fine-tuning y evaluación de calidad. Para proveedores, el impacto puede abarcar desde retención y minimización de datos hasta rediseño de pipelines de aprendizaje, auditoría y consentimiento.

Calendario: consulta pública y próximos pasos

La CAC ha abierto un periodo de comentarios sobre el borrador hasta el 25 de enero. A partir de ese punto, el texto podría modificarse antes de consolidarse como norma aplicable, pero el mensaje para el mercado es claro: China veta familiares AI para acompañar a mayores como caso de uso, y eleva la exigencia de transparencia, protección y límites conductuales en productos de interacción emocional.

Fuentes oficiales y de alta autoridad

Si el borrador se materializa, China veta familiares AI para acompañar a mayores no solo como una prohibición puntual, sino como un precedente regulatorio para todo el segmento de AI companions: desde la simulación de vínculos personales hasta la observabilidad del sistema, la gestión de crisis y la imposibilidad de reciclar conversaciones de usuarios como datos de entrenamiento.

Compartir:

También podría interesarte

Déjanos tu comentario

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio