HPE impulsa el rack Helios de AMD con Juniper para entrenar IA a gran escala

Rack Helios de AMD integrado por HPE con 72 GPUs MI455X, switch Juniper y UALink sobre Ethernet para entrenamiento de IA

HPE impulsa el rack Helios de AMD con Juniper para entrenar IA a gran escala

Compartir:

HPE redobla su apuesta por la infraestructura de IA a gran escala: integrará la arquitectura de rack Helios de AMD con un conmutador de Juniper diseñado a medida y tejido UALink sobre Ethernet, un combo que promete hasta 2.9 exaFLOPS (4 bits) y 260 TB/s por rack para acelerar entrenamiento e inferencia de modelos fundacionales.

HPE se suma a Helios: una plataforma de IA lista para el data center

Previo a su evento Discover en Barcelona, HPE confirmó que incorporará Helios a su portafolio de IA el próximo año, posicionándose entre los primeros proveedores en ofrecer un sistema en rack basado en el diseño de referencia de AMD para cargas de cómputo de IA a hiperescala.

Helios está concebido para operar un rack completo de nodos con aceleradores como si fuese una única y enorme GPU lógica, una aproximación que apunta directamente al terreno del Nvidia DGX GB200 NVL72 en el mercado de alto rendimiento (HPC) y cloud computing.

Arquitectura y cómputo: GPUs Instinct y CPUs Epyc de próxima generación

Para AMD, Helios será el vehículo de lanzamiento de las GPUs Instinct MI455X de nueva generación y de las CPUs Epyc de sexta generación (codenamed Venice), previstas para el próximo año. Con 72 GPUs Instinct MI455X por rack, HPE estima un rendimiento de hasta 2.9 exaFLOPS en precisión de 4 bits, orientado a entrenamiento de grandes modelos de IA y a inferencia de baja latencia.

Red e interconexión: UALink sobre Ethernet y Tomahawk 6

La columna vertebral de red de Helios será una implementación Ethernet escalable que emplea UALink sobre Ethernet. El conmutador, desarrollado por Juniper, se basa en la tecnología Broadcom Tomahawk 6 y ofrece 102.4 Tbps de ancho de banda agregado, habilitando hasta 260 TB/s por rack para comunicación entre aceleradores.

UALink (Ultra Accelerator Link) es un estándar abierto de interconexión para clústeres de GPU, concebido como alternativa a NVLink de Nvidia. Sus especificaciones se publicaron a principios de este año y buscan impulsar la interoperabilidad y la innovación abierta en hardware de IA.

Diseño físico: Open Rack Wide, modularidad y cooling líquido

Helios adopta las especificaciones ORW (Open Rack Wide), desarrolladas por Meta en el marco del Open Compute Project (OCP). El chasis admite bandejas modulares, refrigeración líquida directa y está pensado para entornos con limitaciones energéticas, requisitos clave en centros de datos modernos y neoclouds.

Comparativa y posicionamiento frente a Nvidia

Al operar el rack como una sola GPU lógica y apoyarse en una red de alta capacidad, Helios compite con configuraciones tipo DGX NVL72 de Nvidia. La combinación de UALink sobre Ethernet, GPUs Instinct y switches de alto rendimiento busca reducir cuellos de botella en la escala de cientos de GPUs, optimizando el throughput de datos para entrenamiento distribuido y fine-tuning.

Mercado objetivo, precio y calendario

El coste se situará previsiblemente en la franja de “varios millones”, similar a ofertas comparables de Nvidia. El foco de HPE son proveedores de nube, neoclouds e instituciones con necesidades de IA a gran escala, más que clientes empresariales tradicionales. HPE prevé iniciar la oferta el próximo año y apunta a disponibilidad mundial en 2026.

Por qué importa para la infraestructura de IA

La llegada de Helios con soporte de HPE representa un paso relevante hacia arquitecturas abiertas y escalables para IA, con énfasis en eficiencia energética, estandarización de interconexión y modularidad. Para el ecosistema, supone diversificar opciones frente a soluciones propietarias, manteniendo rendimiento competitivo en centros de datos y nubes públicas.

Puntos clave

  • Hasta 72 GPUs Instinct MI455X por rack y 2.9 exaFLOPS (4 bits).
  • Red UALink sobre Ethernet con conmutador Juniper basado en Broadcom Tomahawk 6 (102.4 Tbps).
  • 260 TB/s de ancho de banda agregado por rack para tareas de IA.
  • Diseño ORW (OCP) con bandejas modulares y refrigeración líquida.
  • Disponibilidad global prevista en 2026; objetivo: cloud y neoclouds.
Compartir:

También podría interesarte

Déjanos tu comentario

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio