OpenAI despliega un modelo para inferir la edad en ChatGPT y activar protecciones para menores
OpenAI ha comenzado el despliegue de un modelo de inferencia de edad en ChatGPT con el objetivo de determinar si una cuenta podría pertenecer a una persona menor de 18 años y, en ese caso, activar automáticamente un conjunto adicional de salvaguardas frente a “contenido sensible o potencialmente dañino”. El movimiento llega en un contexto de presión regulatoria y reputacional sobre los riesgos de los AI chatbots, y también de necesidad empresarial de segmentar audiencias cuando se abren nuevas vías de monetización.
La compañía enmarca este cambio dentro de sus iniciativas de seguridad juvenil, incluyendo su “Teen Safety Blueprint” y principios de comportamiento del modelo para menores. En paralelo, OpenAI reconoce que la inferencia no es infalible: si el sistema clasifica erróneamente a un adulto como menor, se ofrecerá un proceso de verificación para recuperar la experiencia estándar.
Qué es el modelo de inferencia de edad en ChatGPT y cómo decide
Según OpenAI, el modelo de inferencia de edad en ChatGPT combina señales de comportamiento y señales a nivel de cuenta para estimar si un usuario podría ser menor. Entre los indicadores citados por la empresa se incluyen la antigüedad de la cuenta, los horarios típicos de actividad, patrones de uso a lo largo del tiempo y la edad declarada por el propio usuario.
OpenAI diferencia este enfoque de otros métodos habituales: la age verification basada en documentos oficiales y la age estimation que puede apoyarse en biometría (por ejemplo, análisis facial). En este caso, la inferencia se apoya en pistas contextuales y operativas del uso del servicio, lo que reduce fricción pero abre un debate sobre precisión, sesgos y capacidad de impugnación.
Qué cambia cuando el modelo de inferencia de edad en ChatGPT detecta un menor
Cuando el sistema determina que una cuenta es probablemente de un menor de 18 años, OpenAI afirma que activa configuraciones de seguridad reforzadas para reducir la exposición a: violencia gráfica o “gore”, retos virales que fomenten conductas dañinas, role play sexual/romántico/violento, contenidos de autolesión y materiales que promuevan estándares de belleza extremos, dietas poco saludables o body shaming.
La empresa también ha indicado que el despliegue será global y que alcanzará la Unión Europea en las próximas semanas, un territorio especialmente sensible por el marco de cumplimiento en materia de privacidad y protección de menores.
Qué ocurre si el sistema se equivoca
OpenAI admite explícitamente que “ningún sistema es perfecto”. Si un adulto es colocado por error en la experiencia “under-18”, podrá verificar su edad. El proceso de verificación, según la documentación de soporte de OpenAI, puede implicar el uso de un proveedor externo de identidad/edad con opciones como selfie en vivo o documento oficial.
Este punto es clave: la carga de corregir un falso positivo puede trasladarse al usuario, con implicaciones de privacidad al tener que compartir datos sensibles con un tercero.
Presión regulatoria, seguridad y monetización: por qué ahora
El despliegue del modelo de inferencia de edad en ChatGPT se produce mientras crecen el escrutinio público y los riesgos legales asociados al impacto de los chatbots. En Estados Unidos, la discusión ha llegado al Congreso con audiencias específicas sobre daños potenciales, y voces expertas han defendido salvaguardas “developmentally informed” para menores.
Además, OpenAI necesita encajar el cumplimiento publicitario y de marketing dirigido a menores si avanza hacia modelos con anuncios y segmentación. En este escenario, el age gating no solo es un componente de seguridad: también es un requisito operativo para la comercialización responsable en mercados regulados.
Críticas: precisión, sesgos y derechos del usuario
Organizaciones de derechos digitales han advertido que los sistemas de verificación/inferencia de edad mantienen tensiones no resueltas entre efectividad, accesibilidad, privacidad y seguridad. También se cuestiona si señales como la antigüedad de la cuenta o los patrones de uso son suficientemente robustas en un producto relativamente reciente a escala masiva, y si existe un mecanismo claro para impugnar decisiones automatizadas.
El debate se conecta con experiencias regulatorias previas en otros países y con pruebas de tecnología de age assurance que, aun cuando reportan promedios altos de acierto, muestran degradación de rendimiento en determinados grupos demográficos o cerca de umbrales de política.
Fuentes oficiales y documentación técnica
- OpenAI: Our approach to age prediction
- OpenAI Help Center: Age prediction in ChatGPT
- US Senate Judiciary: Examining the Harm of AI Chatbots
A corto plazo, el impacto real del modelo de inferencia de edad en ChatGPT dependerá de dos variables: la tasa de falsos positivos/negativos en condiciones reales y el grado de confianza que usuarios y reguladores otorguen al equilibrio entre protección de menores y minimización de datos. Con el despliegue en expansión y el foco en la UE, OpenAI entra en una nueva fase donde la seguridad juvenil deja de ser solo política de producto y se convierte en infraestructura de cumplimiento.



