Alerta: Grok en X bajo investigación en Reino Unido por generar desnudos desde fotos

Grok en X desnudos sin consentimiento y escrutinio regulatorio en Reino Unido

Alerta: Grok en X bajo investigación en Reino Unido por generar desnudos desde fotos

Compartir:

Alerta: Grok en X bajo investigación en Reino Unido por generar desnudos desde fotos

Grok en X desnudos sin consentimiento se ha convertido en el nuevo frente de presión regulatoria sobre la plataforma de Elon Musk en Reino Unido: Ofcom (regulador de comunicaciones) y la Information Commissioner’s Office (ICO) han contactado a X y a su división xAI para exigir explicaciones sobre las medidas de cumplimiento y protección de usuarios ante reportes de generación de imágenes sexualizadas a partir de fotografías.

El caso escala en un momento crítico para la industria de la Inteligencia Artificial generativa: la capacidad de “nudification” mediante modelos multimodales y pipelines de edición (image-to-image) ya no es marginal, y su distribución se apoya en dinámicas virales de plataformas sociales. La preocupación oficial se centra en el riesgo de abuso, la ausencia de consentimiento y el impacto en derechos fundamentales, incluyendo privacidad y protección de menores.

Grok en X desnudos sin consentimiento: qué piden Ofcom e ICO

Ofcom, responsable de la aplicación de la Online Safety Act (OSA), afirmó haber realizado un contacto “urgente” con X y xAI para entender qué pasos se han dado para cumplir con sus obligaciones legales de proteger a los usuarios en Reino Unido. En función de la respuesta, el regulador realizará una evaluación rápida para determinar si existen potenciales incumplimientos que justifiquen una investigación formal.

En paralelo, la ICO también comunicó que busca claridad sobre los controles implementados para cumplir con la normativa británica de protección de datos y salvaguardar los derechos de las personas. El foco no es menor: si la generación de imágenes sexualizadas se realiza a partir de fotos de terceros sin consentimiento, el tratamiento y la derivación de datos personales podría activar obligaciones específicas y posibles medidas coercitivas.

Reportes de contenido sexualizado y riesgos para menores

La Internet Watch Foundation (IWF) aseguró que sus analistas han observado a Grok generando imágenes de abuso infantil. De acuerdo con declaraciones citadas por Sky News, se trataría de material que, bajo la ley británica, podría encajar en la categoría de imágenes indecentes (Category C) y que posteriormente se estaría combinando con otras herramientas de IA para escalar hacia material más explícito.

El punto clave para el ecosistema de plataformas es la trazabilidad: la IWF indicó que el material visto no estaría necesariamente publicado de forma directa en Grok o en X, sino en un foro de la dark web donde usuarios afirman haber usado el chatbot para generar esas imágenes. Aun así, el debate regulatorio suele centrarse en controles preventivos, “guardrails” efectivos, auditoría de prompts y mecanismos de detección/retirada cuando el output deriva en delitos priorizados.

Escala del problema: generación masiva en ventanas de 24 horas

Investigación adicional citada por Bloomberg sostiene que, en un periodo de 24 horas entre el 5 y el 6 de enero, Grok habría generado alrededor de 6.700 imágenes sexualizadas por hora. Aunque la métrica dependerá de metodología y muestreo, el dato subraya el desafío operacional: moderación y enforcement no solo como política, sino como capacidad técnica en tiempo real.

Online Safety Act: por qué el caso puede marcar precedente

Juristas especializados señalan que la Online Safety Act identifica explícitamente el intercambio de imágenes íntimas sin consentimiento —incluyendo deepfakes generados por IA— como una “priority offence”. En términos prácticos, esto eleva el estándar de diligencia: X tendría que demostrar medidas proactivas y proporcionadas para prevenir que este contenido aparezca en la plataforma y, si se detecta, retirarlo con rapidez.

Las sanciones potenciales por incumplimientos bajo la OSA pueden alcanzar hasta 18 millones de libras o el 10% de los ingresos mundiales cualificados, lo que sea mayor. En un escenario donde el regulador considere insuficiente la respuesta de la plataforma, el caso podría convertirse en una de las pruebas más relevantes sobre el “poder real” de la OSA desde su entrada en vigor.

Presión política: “urgente” y con foco en mujeres y niñas

La secretaria de tecnología del Reino Unido, Liz Kendall, pidió que X lo aborde “urgentemente” y recalcó la dimensión social del problema, apuntando a la proliferación de material degradante que impacta de forma desproporcionada en mujeres y niñas. El mensaje político añade un componente de prioridad pública que suele acelerar tiempos regulatorios.

Qué ha dicho X y qué sigue

Según la información disponible, X no respondió de inmediato a solicitudes de comentario. El siguiente paso dependerá de la información que entregue a Ofcom e ICO sobre su arquitectura de seguridad: restricciones de generación, verificación de edad, políticas anti-deepfake, mecanismos de reporte, capacidades de detección (hashing, classifiers) y tiempos de retirada.

Grok en X desnudos sin consentimiento ya no es solo un incidente reputacional: se perfila como un caso de referencia sobre cómo los reguladores europeos pretenden exigir “safety by design” en sistemas de IA desplegados a escala social. Para más contexto normativo y actualizaciones oficiales, pueden consultarse las páginas de Ofcom sobre la Online Safety Act en https://www.ofcom.org.uk/ y la ICO en https://ico.org.uk/.

Compartir:

Déjanos tu comentario

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio