AWS quiere llevar la IA donde residen los datos sensibles. Con AI Factories, su propuesta “AI‑in‑a‑box” anunciada en re:Invent, la compañía desplegará y operará, dentro del datacenter del cliente, infraestructura y software de inteligencia artificial de alto rendimiento con garantías de seguridad, cumplimiento y control total.
¿Qué es AWS AI Factories?
AWS AI Factories es una solución totalmente gestionada para organizaciones que, por requisitos legales, regulatorios o de ciberseguridad, no pueden usar la nube pública para procesar datos sensibles. El cliente aporta el espacio físico, la energía y las conexiones de red existentes; AWS instala y gestiona sus propios racks con compute, storage y servicios de IA, que funcionan localmente como una especie de región privada de AWS bajo el techo del cliente.
El objetivo: acelerar proyectos de IA empresarial y gubernamental sin renunciar a la soberanía del dato, reduciendo los tiempos de despliegue y la complejidad de adquirir, integrar y mantener hardware y software críticos.
Arquitectura: hardware y red de alto rendimiento
Aceleración y cómputo
La oferta incluye aceleradores de nueva generación, con chips AWS Trainium3 y GPUs Nvidia de alto rendimiento (series B200 y GB200 actuales, y soporte previsto para futuras GB300 y B300). Esta combinación está orientada a entrenamiento y inference a gran escala, con densidad, eficiencia energética y rendimiento predecible para cargas de trabajo de IA generativa y modelos fundacionales.
Red y almacenamiento
AI Factories utiliza una red no bloqueante de gran capacidad para interconectar GPUs y nodos de cómputo, maximizando el rendimiento este‑oeste. En almacenamiento, AWS habilita servicios de baja latencia y alto rendimiento como Amazon FSx for Lustre y Amazon S3 Express One Zone para alimentar pipelines de datos y entrenamiento intensivo. A día de hoy, NVLink Fusion no está disponible; AWS indica que llegará con la generación Trainium4 más adelante.
Servicios gestionados de IA: Bedrock y SageMaker
Sobre esta base, AI Factories expone servicios de software plenamente gestionados, incluyendo Amazon Bedrock para orquestar y consumir modelos de IA y Amazon SageMaker para preparar datos, entrenar, ajustar (fine-tune) y desplegar modelos. La idea es que los equipos de datos y ML operen con herramientas familiares, pero dentro de un entorno aislado y bajo control del cliente.
Soberanía, seguridad y cumplimiento
Matt Garman, CEO de AWS, subraya que cada AI Factory opera de forma exclusiva para un único cliente, manteniendo separación, seguridad y fiabilidad al estilo AWS, al tiempo que cumple requisitos de residencia y soberanía del dato. Al ejecutarse in‑situ, los datos sensibles no abandonan el perímetro corporativo, un requisito clave en sectores regulados y administraciones públicas.
Modelo operativo y costes
El cliente no compra equipos ni construye la plataforma: AWS diseña, instala y gestiona la infraestructura y los servicios de IA. El coste no ha sido divulgado, por lo que no está claro si será más caro o más rentable que desplegar y operar una solución propia. AWS defiende que el valor está en reducir el tiempo de implementación y el riesgo operativo, especialmente en entornos con fuertes exigencias de compliance.
Impulso internacional: del piloto a la escala
La iniciativa bebe de proyectos para crear capacidades de IA privadas, como la colaboración en Arabia Saudita con Humain y la planificación de una AI Zone que prevé albergar hasta 150.000 chips de IA. Según Garman, este modelo aporta infraestructura de alto rendimiento y servicios como SageMaker y Bedrock cumpliendo normas de seguridad y privacidad, lo que ha despertado interés en otros grandes clientes del sector público y en empresas que desean aprovechar sus datacenters existentes.
Competidores y contexto del mercado
Fabricantes como Dell, HPE y Lenovo impulsan sus propias propuestas de IA privada. Analistas coinciden en que la demanda en clientes finales está condicionada por retos físicos y operativos (enfriamiento, plazos de entrega de GPUs y chips, y soberanía de datos). En este escenario, los modelos on‑prem gestionados por proveedores podrían acelerar la adopción de IA sin ceder control ni seguridad.
Lo que deben evaluar CIO y CISO
- Requisitos de residencia y soberanía del dato frente a la nube pública.
- Capacidad de energía, refrigeración y espacio disponible en el datacenter.
- Interconexión con redes corporativas y cargas existentes.
- Economía total de propiedad frente a alternativas autogestionadas.
- Gobernanza de modelos, aislamiento y control de acceso a datos sensibles.



