Reino Unido investiga a xAI por Grok: imágenes sexuales sin consentimiento y foco en privacidad
La investigación ICO a xAI por Grok ya está en marcha: el Information Commissioner’s Office (ICO) del Reino Unido abrió una investigación formal para determinar si los servicios de Grok, el chatbot de xAI (compañía de Elon Musk), cumplieron la normativa de protección de datos tras la generación de imágenes sexualizadas de personas reales sin su consentimiento. El movimiento eleva la presión regulatoria sobre la AI generativa cuando el output implica datos personales, biometría e imágenes identificables.
Según el ICO, la investigación analizará si xAI y la entidad citada por el regulador como XIUC “han cumplido con la ley de protección de datos en el desarrollo y despliegue de los servicios Grok”, incluyendo los safeguards y controles implementados para proteger los derechos de las personas. El organismo añadió que, si detecta incumplimientos, tomará medidas para “proteger al público”.
Qué cubre la investigación ICO a xAI por Grok y por qué importa
El caso apunta a un punto crítico de la industria: cuando un sistema de generación de imágenes produce representaciones explícitas de individuos reales, entran en juego obligaciones reforzadas sobre tratamiento de datos, base legal, minimización, control de riesgos y prevención de daño. En entornos europeos, además, la discusión suele cruzarse con requisitos de privacy by design, rendición de cuentas y evaluación del impacto del procesamiento, especialmente si hay identificación de personas o inferencia de atributos sensibles.
La investigación ICO a xAI por Grok llega después de que el regulador ya hubiera enviado a principios de enero una solicitud de explicaciones (“please explain”) a xAI. Ahora, con la apertura formal, el expediente pasa de una fase preliminar a una revisión más estructurada del cumplimiento, con especial atención a la forma en que se entrenan, operan y se restringen capacidades de generación cuando el contenido puede involucrar a terceros no consentidores.
Ofcom y los controles de edad para contenido pornográfico
En paralelo, el regulador británico de comunicaciones Ofcom comunicó que sigue reclamando respuestas a xAI sobre los riesgos que plantea, mientras examina si abre su propia investigación respecto al cumplimiento de reglas que exigen “controles de edad altamente efectivos” para servicios que publican material pornográfico, con el objetivo de impedir el acceso de menores. Aunque se trata de marcos regulatorios distintos, ambos frentes convergen en un mismo problema técnico-operativo: cómo aplicar gating, clasificación y verificación robusta cuando la generación de contenido es dinámica y bajo demanda.
España endurece su discurso: redes sociales como “failed state”
El debate escaló también en España. El presidente del Gobierno, Pedro Sánchez, calificó las redes sociales como un “failed state” y citó la capacidad de Grok para crear imágenes sexualizadas como ejemplo de fallas sistémicas en plataformas y algoritmos. En su intervención, planteó medidas como prohibir el acceso a redes sociales a menores de 16 años, responsabilizar a ejecutivos por actos ilegales en plataformas y criminalizar la manipulación algorítmica y la amplificación de contenido ilegal.
Sánchez afirmó además que se impulsarán herramientas para rastrear el origen de contenido de odio y apoyar investigaciones del ministerio público, mencionando a Grok, TikTok e Instagram como objetivos de esas actuaciones. Tras el discurso, Elon Musk respondió desde X con ataques personales contra el mandatario español.
Implicaciones para xAI, Grok y el mercado de AI generativa
Más allá de la polémica política, la investigación ICO a xAI por Grok es una señal para todo el sector: los reguladores están observando no solo el contenido final, sino el diseño de los controles (políticas de uso, filtros, bloqueo de deepfake sexual, medidas anti-abuso, trazabilidad, gestión de reclamaciones) y la gobernanza del ciclo de vida del producto. En AI generativa, el “output” puede convertirse en un vector de violación de derechos si los mecanismos de prevención son insuficientes o si el sistema permite reconstruir o simular a individuos reales sin autorización.
El resultado del proceso podría influir en cómo los proveedores ajustan capacidades de generación, límites de prompt, detección de identidad, reglas de publicación y controles de edad, especialmente en mercados europeos con alta sensibilidad regulatoria en privacidad.
Para más contexto oficial, pueden consultarse los marcos y comunicaciones de los reguladores: el ICO (Reino Unido) sobre protección de datos en ico.org.uk y el anuncio de Ofcom sobre investigación y alcance del Online Safety Act en ofcom.org.uk.
Con este movimiento, la investigación ICO a xAI por Grok se consolida como uno de los casos más relevantes de 2026 para entender cómo se aplicarán en la práctica las exigencias de privacidad y seguridad a productos de generación de imágenes y contenido, especialmente cuando el material involucra a personas reales sin consentimiento.



