HBM4 para aceleradores de IA: Samsung y Micron confirman envíos comerciales y presionan el calendario de Nvidia Rubin
HBM4 para aceleradores de IA ya está saliendo al mercado: Samsung y Micron han confirmado envíos a clientes y producción en volumen de esta nueva generación de High Bandwidth Memory, un componente crítico para alimentar el próximo salto de rendimiento en hardware de entrenamiento e inferencia. La noticia es relevante ahora porque el suministro de HBM condiciona directamente la disponibilidad de aceleradores de IA y puede impactar tanto en precios como en calendarios de plataformas anunciadas para 2026.
Samsung comunicó que ha iniciado la producción en masa de HBM4 y que ya ha realizado envíos a un cliente no identificado. En su anuncio, la compañía detalla que su HBM4 entrega una velocidad consistente de 11,7 Gb/s y puede alcanzar 13 Gb/s bajo ciertas condiciones, además de un ancho de banda total de hasta 3,3 TB/s por stack. Según la misma comunicación, el producto se ofrecerá inicialmente en capacidades de 24 GB a 36 GB, con un plan para llegar a 48 GB. Fuente oficial: Samsung Newsroom.
HBM4 para aceleradores de IA: rendimiento, capacidad y eficiencia
Más allá del rendimiento bruto, Samsung afirma mejoras frente a HBM3E en parámetros térmicos y energéticos: habla de una resistencia térmica un 10% superior y una disipación de calor un 30% mayor, además de un 40% más de eficiencia energética. Estas métricas importan en centros de datos porque la memoria HBM opera a densidades elevadas cerca del paquete del acelerador (advanced packaging), donde la gestión térmica es un cuello de botella que puede limitar frecuencias sostenidas y, por extensión, el throughput efectivo en cargas de IA.
En paralelo, Samsung no ha publicado precios, pero sí un pronóstico: espera que sus ventas de HBM se multipliquen por más de tres en 2026 frente a 2025. También anticipa que enviará samples de HBM4E en la segunda mitad de 2026, una señal de que el roadmap de la industria seguirá empujando densidad y ancho de banda para satisfacer la demanda de modelos cada vez más grandes.
Micron también entra: producción en volumen y chips ya “pre-vendidos”
La confirmación de Samsung llega apenas un día después de que Micron indicara que también ha arrancado producción en alto volumen de HBM4 y que ya ha enviado unidades a clientes. En un evento de Wolfe Research, el CFO Mark Murphy defendió el estado del programa de HBM4, señalando que el producto supera los 11 Gb/s y remarcando confianza en rendimiento, calidad y fiabilidad. Un punto clave: según sus declaraciones, Micron habría entregado el producto un trimestre antes de lo previsto y asegura que ya ha pre-vendido todo el HBM4 que puede fabricar durante este año fiscal, un indicio directo de la presión de demanda y de la escasez estructural de capacidad en HBM.
Para el mercado, el mensaje es claro: HBM4 para aceleradores de IA se está convirtiendo en un activo estratégico. Con dos proveedores afirmando envíos y volumen, SK hynix queda como el gran actor que aún no ha hecho un anuncio equivalente en este punto del ciclo, algo relevante porque los hyperscalers y los fabricantes de aceleradores diversifican el abastecimiento para reducir riesgo de supply chain.
Por qué esto es importante para Nvidia Vera Rubin y la industria
Nvidia ha comunicado planes para lanzar sus aceleradores Vera Rubin en el segundo trimestre de 2026, y la disponibilidad de HBM4 es una variable determinante para cumplir ventanas de producción, ramp-up y entrega a integradores. En este contexto, la entrada de Samsung y Micron con envíos comerciales reduce incertidumbre sobre el suministro de memoria de última generación, aunque no elimina el riesgo: la propia dinámica de demanda puede seguir tensionando precios y reasignación de capacidad desde memorias de menor margen hacia HBM.
A nivel de industria, el efecto colateral potencial es un encarecimiento de otras categorías de memoria, en la medida en que los fabricantes prioricen líneas de alto margen orientadas a IA. Es un patrón ya visible en ciclos anteriores: cuando la capacidad se orienta hacia productos premium para data center, el resto del mercado absorbe la presión vía disponibilidad y precio.
Para seguimiento del suministro y anuncios corporativos de referencia, la información de partida de Samsung está disponible en su canal oficial, y la evolución del ecosistema de aceleración se puede contrastar con las comunicaciones de los propios fabricantes de GPU y plataformas de data center. Más información corporativa: Micron Technology y NVIDIA.
En síntesis, HBM4 para aceleradores de IA pasa de promesa a suministro real con Samsung y Micron reportando envíos y producción en volumen, una señal que puede acelerar la llegada de la próxima generación de hardware de IA en 2026, pero también intensificar la competencia por capacidad y reforzar la presión sobre los precios de memoria en el resto del mercado.



