RDU SN50 de SambaNova para inferencia IA: ronda de $350M con Intel y reto directo a Nvidia

RDU SN50 SambaNova inferencia IA con memoria HBM2E y jerarquía de tres niveles para despliegues GenAI

RDU SN50 de SambaNova para inferencia IA: ronda de $350M con Intel y reto directo a Nvidia

Compartir:

RDU SN50 de SambaNova para inferencia IA: ronda de $350M con Intel y reto directo a Nvidia

RDU SN50 SambaNova inferencia IA es el eje de la nueva ofensiva de SambaNova: la compañía de infraestructura de IA ha anunciado una financiación de 350 millones de dólares con participación de Intel Capital y otros inversores, con el objetivo de acelerar su arquitectura dataflow como alternativa a sistemas de inferencia basados en GPU en despliegues de Generative AI.

La entrada de Intel Capital llega acompañada de una colaboración “multi-year” entre ambas compañías, orientada a construir una propuesta conjunta para clientes que buscan reducir dependencia de GPU en producción. El acuerdo contempla integración con CPUs Intel Xeon y trabajo de hardware-software co-design, en un momento en el que Intel intenta rearmar su posicionamiento en el datacenter para IA tras los tropiezos de sus líneas de aceleración recientes.

RDU SN50 SambaNova inferencia IA: qué cambia con la nueva generación

SambaNova prevé enviar sus aceleradores SN50 a lo largo de este año y sitúa a SoftBank (Japón) entre los primeros clientes confirmados. La compañía presenta el SN50 como una evolución significativa sobre el SN40L (2024), con un incremento declarado de 2,5x en rendimiento FP16 y 5x en FP8, que se traduce en 1,6 petaFLOPS (FP16) y 3,2 petaFLOPS (FP8) según cifras de la empresa.

La arquitectura mantiene su jerarquía de memoria de tres niveles, una de las piezas diferenciales del enfoque dataflow de SambaNova para inferencia: cada RDU integra 432 MB de SRAM on-chip, 64 GB de HBM2E con 1,8 TB/s de ancho de banda y una capa adicional de DDR5 configurable entre 256 GB y 2 TB. La compañía defiende HBM2E por disponibilidad y coste, buscando evitar tensiones de supply chain en un contexto de precios al alza en memoria.

Escalado y conectividad: del rendimiento pico a la inferencia real

SambaNova reconoce que, “sobre el papel”, el SN50 no compite en métricas pico frente a GPUs modernas en capacidad HBM o ancho de banda, pero sostiene que el rendimiento efectivo en inferencia depende menos de FLOPS anunciados y más de la eficiencia de ejecución, el movimiento de datos y la utilización sostenida. Su tesis: el dataflow reduce overhead al solapar computación y comunicación, permitiendo servir cargas con menos aceleradores o con configuraciones menos densas.

En este marco, la empresa afirma que el SN50 puede ofrecer hasta 5x más velocidad de generación por usuario frente a Nvidia B200 en determinados escenarios de inferencia. Además, eleva el dominio de escalado de un “inference worker” hasta 256 aceleradores y asegura 2,2 TB/s de ancho de banda bidireccional chip-to-chip mediante una switched fabric, con racks de 16 RDUs refrigerados por aire y rangos de potencia de 15 a 30 kW por rack.

RDU SN50 SambaNova inferencia IA y el foco en utilización y economía por rack

Más allá del throughput, SambaNova posiciona la gran reserva de DDR5 por acelerador como herramienta para mover con rapidez modelos de clientes y key-value caches (KV cache) en milisegundos, optimizando cambios de contexto y rotación de cargas. El CEO Rodrigo Liang enmarca este diseño en la transición hacia agentes y personalización: a medida que cada cliente exige variantes y afinaciones propias, la utilización de infraestructura tiende a caer, afectando los márgenes de los proveedores de inferencia.

Según Liang, el trabajo de 2025 se centró en mejorar la economía por rack para que los proveedores puedan “servir tokens” con rentabilidad. Con esa base, la compañía afirma que su prioridad pasa por vender infraestructura en lugar de replicar modelos de “inference cloud” dedicado.

Qué gana Intel con esta alianza

Para Intel, el movimiento es estratégico: la colaboración con SambaNova busca ampliar su presencia en el stack de inferencia de IA a través del binomio Xeon + aceleración de terceros, en un mercado dominado por Nvidia. En su comunicación pública, Intel vincula el acuerdo a su necesidad de seguir siendo un actor relevante “del edge al cloud” y proteger cuota en el ecosistema.

Contexto del mercado: presión de Nvidia y carrera por la inferencia

La inferencia se ha convertido en el nuevo cuello de botella competitivo de la IA generativa: disponibilidad de hardware, coste por token, eficiencia energética y capacidad de servir múltiples modelos con alta utilización. Mientras Nvidia empuja configuraciones de rack cada vez más integradas, startups como SambaNova apuestan por arquitecturas alternativas y optimización del “data movement” para intentar ganar en escenarios de producción.

En paralelo, el mercado también observa una convergencia conceptual: la industria empieza a incorporar ideas de dataflow y ejecución especializada en inferencia, elevando la presión para que propuestas como RDU SN50 SambaNova inferencia IA demuestren ventajas sostenibles más allá de comparativas puntuales.

Fuentes y enlaces de referencia

Con la financiación cerrada y el calendario de envíos del SN50 sobre la mesa, el siguiente hito será validar en producción si RDU SN50 SambaNova inferencia IA puede sostener sus promesas de velocidad por usuario, utilización y coste total frente a plataformas GPU consolidadas.

Compartir:

También podría interesarte

Déjanos tu comentario

Scroll al inicio