Alerta: Ofcom investiga a X por el uso de Grok para generar imágenes íntimas no consentidas

Investigación Ofcom a X por Grok nudificación y cumplimiento del Online Safety Act en Reino Unido

Alerta: Ofcom investiga a X por el uso de Grok para generar imágenes íntimas no consentidas

Compartir:

Alerta: Ofcom investiga a X por el uso de Grok para generar imágenes íntimas no consentidas

La Investigación Ofcom a X por Grok nudificación ya es oficial: el regulador británico de comunicaciones abrió un expediente para determinar si X incumplió obligaciones del Online Safety Act tras reportes de uso del chatbot Grok para crear y difundir imágenes sexualizadas e “imágenes de personas sin ropa” sin consentimiento, además de material sexualizado de menores que podría encajar en la categoría de child sexual abuse material (CSAM).

Según Ofcom, el organismo contactó de forma urgente con X el lunes 5 de enero y fijó como fecha límite el viernes 9 de enero para que la compañía explicara qué medidas ha aplicado para cumplir sus deberes de seguridad con usuarios del Reino Unido. El regulador afirma haber recibido respuesta y haber realizado una evaluación acelerada de la evidencia disponible antes de formalizar la investigación.

Qué evalúa la Investigación Ofcom a X por Grok nudificación

El foco del proceso se centra en tres vectores clave: si X comprende el riesgo de exposición de usuarios del Reino Unido (incluidos menores) a contenido ilegal; si ha implementado medidas proporcionales para prevenir el acceso a ese contenido; y si cuenta con mecanismos efectivos para retirar contenido ilegal una vez publicado. En la práctica, la Investigación Ofcom a X por Grok nudificación pone a prueba cómo las plataformas gestionan el abuso de herramientas de IA generativa integradas en productos de consumo masivo.

Ofcom remarcó que “no dudará en investigar” cuando sospeche fallos en el cumplimiento de obligaciones, especialmente si existe riesgo de daño a menores. La investigación se tramitará como asunto prioritario, indicando que el regulador busca un resultado “legalmente robusto” y con el debido proceso.

Riesgo regulatorio: multas y medidas de “business disruption”

El marco del Online Safety Act contempla sanciones de hasta 18 millones de libras o el 10% de la facturación global aplicable (la cifra que resulte mayor), además de medidas extremas para infractores graves. Entre esas medidas, se incluyen órdenes judiciales para forzar a proveedores de pago y anunciantes a cesar relaciones comerciales con una organización, un enfoque que traslada el cumplimiento desde la moderación de contenido a la viabilidad operativa del servicio.

Contexto político: presión parlamentaria y vacíos legales

La apertura del expediente llega tras una escalada de presión política en Westminster. La presidenta del Science, Innovation and Technology Committee, Dame Chi Onwurah, calificó como “extremadamente alarmantes” los deepfakes íntimos no consentidos asociados al uso de Grok, y señaló vacíos legislativos: por un lado, disposiciones sobre deepfakes en la Data Use and Access Act aprobada en 2025 que aún requerirían desarrollo normativo; por otro, la complejidad de encajar la creación de imágenes íntimas generadas por IA cuando no hay distribución.

Aun así, el regulador y legisladores recuerdan que el derecho británico ya prohíbe conductas asociadas al caso, especialmente la difusión de imágenes íntimas no consentidas y cualquier material de abuso sexual infantil. Parte de esas tipificaciones se apoyan en normativa existente que se integra en el marco del Online Safety Act.

La postura del Gobierno y el rol de Ofcom en la Investigación Ofcom a X por Grok nudificación

La ministra Liz Kendall respaldó públicamente la decisión de Ofcom y pidió una conclusión “rápida” por el interés de las víctimas y del público. Kendall afirmó que el contenido generado y compartido con Grok en días recientes ha sido “profundamente perturbador”, y reiteró que el Ejecutivo apoyará una respuesta regulatoria robusta si Ofcom considera necesario ejercer todo el alcance de sus poderes.

En paralelo, la ministra criticó el hecho de que X limitara ciertas funciones de generación de imágenes a usuarios de pago, al considerar insuficiente la restricción si el vector de abuso permanece disponible detrás de un paywall. La Investigación Ofcom a X por Grok nudificación también se interpreta como una señal a la industria: ajustar el acceso no sustituye a controles de seguridad, trazabilidad y respuesta frente a contenido ilegal.

Impacto para la industria: IA generativa, “intimate image abuse” y cumplimiento

Más allá del caso específico de X, este expediente eleva el listón de cumplimiento para plataformas que integran modelos generativos capaces de transformar imágenes. Los reguladores están midiendo no solo el contenido final, sino el diseño del producto: fricción en el flujo de generación, barreras contra usos previsibles, señales de abuso, políticas de retirada, y evidencia de que las empresas anticipan riesgos de daños a mujeres y menores.

Para seguir el proceso desde fuentes oficiales, Ofcom publicó el comunicado de apertura del caso en su portal de Online Safety. El marco legal general y las obligaciones que se evalúan se describen en la página institucional del Gobierno del Reino Unido sobre Online Safety.

Cierre: la Investigación Ofcom a X por Grok nudificación marca un punto de inflexión en la supervisión de IA generativa integrada en redes sociales: el regulador no solo examina publicaciones, sino la capacidad de la plataforma para prevenir, detectar y retirar contenido ilegal bajo un marco sancionador que puede escalar desde multas millonarias hasta medidas de interrupción del negocio.

Compartir:

También podría interesarte

Déjanos tu comentario

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio