Alerta: Google vincula a APT31 con el uso de Gemini para planificar ciberataques en EEUU

APT31 usó Gemini para planificar ciberataques en EEUU según un informe de Google Threat Intelligence

Alerta: Google vincula a APT31 con el uso de Gemini para planificar ciberataques en EEUU

Compartir:

Alerta: Google vincula a APT31 con el uso de Gemini para planificar ciberataques en EEUU

Google asegura que APT31 usó Gemini para planificar ciberataques en EEUU mediante prompts estructurados orientados a automatizar el análisis de vulnerabilidades y la preparación de planes de pruebas dirigidos a objetivos concretos. La compañía afirma que no tiene indicios de que las intrusiones descritas hayan tenido éxito, pero advierte de un cambio relevante: el uso de modelos de IA como soporte para operaciones ofensivas con menor intervención humana.

La atribución aparece en el último informe del AI Threat Tracker del Google Threat Intelligence Group (GTIG), compartido por la compañía como parte de su seguimiento del abuso de herramientas de IA por parte de actores estatales y grupos criminales. Google identifica a APT31 como un grupo respaldado por Pekín, también conocido como Violet Typhoon, Zirconium y Judgment Panda, y señala que la actividad más reciente se detectó a finales del año pasado.

APT31 usó Gemini para planificar ciberataques en EEUU con prompts “persona experta”

Según Google, el patrón observado se basó en una “aproximación altamente estructurada”: los operadores alimentaron a Gemini con una persona de “experto en ciberseguridad” para convertir el modelo en un asistente capaz de auto-analizar vulnerabilidades y generar planes de testing que pueden integrarse en flujos de reconnaissance y explotación. Este tipo de uso apunta a una adopción progresiva de enfoques “agentic” (agentes) para escalar operaciones ofensivas.

John Hultquist, chief analyst de GTIG, enmarca el riesgo en dos frentes: la automatización de tareas a lo largo de todo el ciclo de intrusión (desde reconocimiento hasta ejecución) y la automatización del desarrollo de explotación de vulnerabilidades. En ambos casos, el incentivo es claro: acelerar la operación y reducir el “tiempo humano” necesario para iterar contra múltiples objetivos.

Hexstrike + MCP: automatización de red teaming con capacidades ofensivas

Google destaca un caso en el que el grupo utilizó Hexstrike, una herramienta open source de red teaming basada en Model Context Protocol (MCP), para analizar exploits y técnicas como remote code execution (RCE), WAF bypass y SQL injection contra objetivos en Estados Unidos. La integración de plataformas de este tipo con modelos como Gemini permite orquestar el uso de un gran número de herramientas de seguridad (Google cita más de 150 en el caso de Hexstrike) para tareas como escaneo, reconocimiento, enumeración y pruebas de penetración.

GTIG sostiene que esta integración “difumina” la frontera entre consultas típicas de evaluación de seguridad y operaciones de reconnaissance maliciosas orientadas a un objetivo específico. Google afirma que ha deshabilitado cuentas vinculadas a esta campaña.

El impacto operativo: la “patch gap” se amplía cuando la IA acelera el exploit

Más allá del caso concreto, el informe alerta de una consecuencia sistémica: el uso de agentes de IA para descubrir vulnerabilidades y probar explotación puede ampliar la patch gap, es decir, la ventana entre la divulgación o disponibilidad de un fallo y la aplicación efectiva de mitigaciones/patches en entornos reales. Hultquist señala que en algunas organizaciones el despliegue de defensas puede tardar semanas, lo que incrementa el riesgo cuando el adversario puede iterar a “machine speed”.

En este contexto, Google plantea que la defensa también tenderá a incorporar automatización para responder con mayor rapidez, reduciendo pasos manuales y priorizando remediación y contención con ayuda de IA, especialmente en entornos con gran superficie de ataque y dependencia de aplicaciones web y servicios cloud.

También suben los “distillation attacks” para robar IP de modelos

El mismo informe indica un aumento de intentos de extracción de modelos, a los que denomina “distillation attacks”. Según Google, tanto GTIG como Google DeepMind han identificado actores intentando extraer capacidades de productos de IA de Google, en una dinámica de robo de propiedad intelectual orientada a replicar comportamiento del modelo o inferir lógica interna valiosa para acelerar desarrollos propios a menor coste.

Hultquist subraya que estas campañas no se limitarían a un único país: la compañía habla de actividad “a lo largo del mundo”, incluyendo intentos que emanarían de investigadores y empresas privadas.

Contexto: APT31 y campañas previas en el radar de EEUU

APT31 ya había sido asociado en el pasado a campañas contra infraestructuras y objetivos de alto valor. Google recuerda que el grupo fue uno de los que explotaron vulnerabilidades en Microsoft SharePoint durante el verano, y que en marzo de 2024 el Gobierno de Estados Unidos anunció sanciones y cargos criminales contra siete presuntos miembros vinculados a intrusiones en redes, correo y almacenamiento cloud.

Para ampliar detalles técnicos y el contexto del reporte, Google remite a su publicación oficial del AI Threat Tracker en Google Cloud, donde describe hallazgos, atribución y acciones de mitigación: https://cloud.google.com/blog/topics/threat-intelligence/distillation-experimentation-integration-ai-adversarial-use. En paralelo, la documentación oficial de Gemini y el ecosistema de productos de IA de Google aporta el marco de cómo se despliegan y gobiernan estas capacidades: https://ai.google/.

En síntesis, el mensaje de la compañía es que APT31 usó Gemini para planificar ciberataques en EEUU como parte de una tendencia más amplia: actores avanzados están probando cómo convertir modelos generalistas en asistentes de reconnaissance y explotación, mientras crecen los intentos de extracción de capacidades para robar IP y reducir barreras de entrada en el desarrollo de modelos.

Compartir:

Déjanos tu comentario

Scroll al inicio