Ofcom mantiene la investigación a X por el ‘nudify’ de Grok pese al bloqueo anunciado

Investigación Ofcom a X por nudify de Grok y medidas de bloqueo de imágenes íntimas no consentidas

Ofcom mantiene la investigación a X por el ‘nudify’ de Grok pese al bloqueo anunciado

Compartir:

Ofcom mantiene la investigación a X por el ‘nudify’ de Grok pese al bloqueo anunciado

La Investigación Ofcom a X por nudify de Grok continúa en marcha en Reino Unido a pesar de que la red social propiedad de Elon Musk asegura haber implementado medidas técnicas para impedir que su chatbot Grok se utilice para “desnudar” digitalmente a personas reales y generar imágenes íntimas no consentidas. Para la industria, el caso es relevante porque eleva el listón regulatorio sobre controles de seguridad en generación de imagen por AI y refuerza el alcance práctico de la Online Safety Act sobre plataformas con funcionalidades de creación de contenido.

Un portavoz de Ofcom confirmó que la mitigación anunciada por X es “un avance bienvenido”, pero subrayó que la investigación formal sigue abierta para determinar “qué salió mal” y “qué se está haciendo para solucionarlo”, en un proceso que busca respuestas verificables sobre gobernanza, enforcement y prevención de daños.

Investigación Ofcom a X por nudify de Grok: qué investiga el regulador

Ofcom empezó a contactar con X el 5 de enero tras informes generalizados de que Grok estaba siendo utilizado para editar imágenes de personas reales y producir representaciones sexualizadas, incluyendo casos que afectaban a mujeres y también a menores. Posteriormente, el regulador abrió una investigación formal para evaluar si la plataforma cumplió con sus deberes en materia de seguridad, mitigación de riesgos y retirada de contenido ilegal o dañino, en el marco de la Online Safety Act (legislation.gov.uk).

El foco no se limita a un ajuste puntual del producto: incluye cómo se permitió el uso abusivo, qué salvaguardas existían (o no), qué capacidad de detección y respuesta se activó, y si los controles aplicados son suficientes y sostenibles cuando la generación y edición de imágenes se integra en flujos de producto de consumo masivo.

Qué medidas dice haber aplicado X en Grok

X comunicó que ha implementado “medidas tecnológicas” para impedir que la cuenta de Grok pueda editar imágenes de personas reales de forma que parezca que tienen menos ropa o ninguna. Además, la compañía habría aplicado restricciones geográficas a la capacidad del chatbot para generar imágenes de personas en bikini, ropa interior u otras prendas reveladoras, en mercados donde ese contenido puede estar restringido por ley. X también reiteró su postura de “tolerancia cero” frente a explotación sexual infantil (CSAM), desnudez no consentida y contenido sexual no deseado, según su comunicación pública.

La controversia se intensificó después de que una primera respuesta de la plataforma limitara estas capacidades a usuarios de pago, una decisión que autoridades británicas calificaron de inaceptable. X afirma ahora que la restricción aplica a todos los usuarios, incluidos suscriptores.

Impacto para el sector: AI generativa y compliance operativo

El caso refuerza un patrón que afecta a todo el mercado: cuando una plataforma despliega AI generativa con edición de imagen, la discusión deja de ser únicamente de “policy” y se convierte en ingeniería de seguridad y compliance operacional. Eso incluye guardrails por diseño, controles de identidad/contexto, trazabilidad, rate limiting, detección de abuso y canales de escalado, además de la capacidad de demostrar ante un regulador que las medidas son efectivas y auditables.

Para contexto adicional sobre el enfoque regulatorio del organismo, Ofcom mantiene recursos públicos sobre su rol en seguridad online en su sitio oficial: Ofcom Online Safety (ofcom.org.uk).

Fuera del Reino Unido, la presión regulatoria también escala: el fiscal general de California, Rob Bonta, ha señalado que abrirá una investigación por los reportes de material sexual explícito no consentido generado y difundido a través de estas herramientas, elevando el riesgo legal y reputacional para proveedores y plataformas que operan con modelos multimodales.

A corto plazo, la Investigación Ofcom a X por nudify de Grok se convierte en un caso de referencia para medir hasta dónde llegan las obligaciones de mitigación cuando la AI no solo recomienda contenido, sino que lo genera. El resultado podría influir en exigencias técnicas más estrictas y en potenciales sanciones si el regulador concluye que hubo incumplimientos materiales y fallos de control.

Compartir:

Déjanos tu comentario

Scroll al inicio