Arquitectura de alimentación HVDC 800V en datacenters: por qué la IA está rompiendo el estándar 48V

Arquitectura HVDC 800V en datacenters para racks de IA de alta densidad energética

Arquitectura de alimentación HVDC 800V en datacenters: por qué la IA está rompiendo el estándar 48V

Compartir:

Arquitectura de alimentación HVDC 800V en datacenters: por qué la IA está rompiendo el estándar 48V

La arquitectura HVDC 800V en datacenters está pasando de debate técnico a prioridad de ingeniería por una razón directa: la nueva generación de racks de IA exige potencias que hacen inviable seguir escalando en 48V sin pagar el precio en corriente, pérdidas resistivas, cobre y complejidad operativa. El ejemplo más citado por la industria es el sistema rack-scale Nvidia GB200 NVL72, con un requerimiento de 120 kW por rack, una cifra que empuja a los operadores a reconsiderar toda la jerarquía de alimentación eléctrica dentro del centro de datos.

Durante años, el diseño típico se apoyó en arquitecturas de 12V y después 48V (implementadas de forma habitual alrededor de 50–54 VDC) para densidades del orden de 10–15 kW por rack. Esa estabilidad se rompe con los clusters de GPUs: a 48V, entregar 120 kW implica corrientes por encima de 2,5 kA, lo que tensiona busbars, conectores, disipación térmica y mantenibilidad. El resultado es un giro hacia distribución en alta tensión DC (por ejemplo 400V o 800VDC) para reducir corriente a igual potencia y, con ello, recortar pérdidas y material conductor.

Arquitectura HVDC 800V en datacenters: la física detrás del salto

El punto crítico es el coste físico de la corriente: la pérdida por efecto Joule escala como Ploss = I2R. En otras palabras, cuando sube la potencia por rack manteniendo baja tensión, la corriente crece y las pérdidas aumentan de forma cuadrática. En el caso de NVL72, el análisis citado en el sector contempla picos de potencia del orden de 192 kW y corrientes superiores a 3,8 kA en escenarios de pico. Incluso con resistencias extremadamente bajas en busbar (por ejemplo 0,1 mΩ a lo largo del camino), las pérdidas se vuelven relevantes; y en despliegues reales, la resistencia total puede acercarse a 0,5 mΩ o más por interfaces de contacto, terminaciones y discontinuidades, elevando aún más la disipación en calor.

El contraste con 800VDC es el argumento central: a mayor tensión, menor corriente para la misma potencia, y por tanto menores pérdidas resistivas. En el ejemplo ilustrativo difundido, un escenario de 800V con 150 A arroja pérdidas de apenas unos vatios para resistencias equivalentes, incluso asumiendo conectores con más resistencia. Esta asimetría explica por qué la arquitectura HVDC 800V en datacenters se presenta como un cambio “de sistema”, no como una optimización incremental.

48V bajo presión: cobre, ampacidad y resistencia de contacto

Además de la eficiencia, aparece un límite práctico: la ampacidad (corriente máxima antes de exceder la temperatura de diseño) obliga a incrementar sección de conductor. En racks basados en especificaciones como OCP Open Rack v3 (ORv3), la escalada hacia kiloamperios empuja a busbars de cobre masivos, pesados y voluminosos, que compiten con espacio para flujo de aire o infraestructura de liquid cooling. En este contexto, Nvidia sostiene que un enfoque a 800VDC permite una reducción de cobre de hasta 45% frente a configuraciones tradicionales, un dato que se vuelve estratégico cuando el volumen interno del rack se convierte en un recurso escaso.

Los conectores también se vuelven un cuello de botella: a corrientes del orden de varios kiloamperios, pequeñas degradaciones en resistencia de contacto disparan puntos calientes. En el ejemplo citado, una degradación de apenas 0,1 mΩ a 2,5 kA puede generar del orden de 625 W de calor localizado, elevando riesgo térmico y complejidad de operación.

Nueva jerarquía eléctrica: de 13,8 kV AC a un bus HVDC

La transformación que propone la industria no parte de “reinventar” la entrada eléctrica: el suministro sigue llegando típicamente como media tensión AC, alrededor de 13,8 kV. El cambio llega después: en lugar de múltiples conversiones y escalones repartidos, los diseños HVDC buscan rectificar una vez (AC a DC) en el perímetro o a nivel de facility y distribuir esa DC a alta tensión por el datacenter, reduciendo conversiones intermedias y simplificando rutas de respaldo.

En la estrategia asociada al enfoque de Nvidia, la idea es convertir el feed de 13,8 kV AC a 800VDC mediante rectificadores industriales y distribuirlo mediante un bus DC. Un beneficio adicional es la integración más directa de baterías al bus DC para soporte de continuidad, al disminuir etapas de conversión que penalizan eficiencia y fiabilidad.

Del ORv3 a HVDC: transición, no ruptura inmediata

La arquitectura ORv3 a 48–54 VDC sigue siendo la base de gran parte del ecosistema hyperscale, con power shelves modulares en 1U que típicamente entregan 15 kW a 18 kW por unidad y se paralelizan para subir potencia de rack. Esta aproximación fue un salto relevante frente a 12V, pero con IA apuntando a 100+ kW por rack, incluso 48V empieza a rozar límites prácticos por corriente, calor y servicios.

La transición que se dibuja en el sector es híbrida: racks que acepten un feed 800V y lo conviertan mediante DC/DC de alta eficiencia hacia dominios de 48V o 12V a nivel de shelf, antes de que los VRMs en placa hagan la conversión final a sub-1V para chips. Este movimiento también eleva el papel de semiconductores de potencia como GaN (gallium nitride) y SiC (silicon carbide) en convertidores front-end e intermedios, por densidad de potencia y eficiencia.

Un ejemplo de esta capa de suministro es el anuncio de Navitas Semiconductor de componentes GaN y SiC orientados a la arquitectura 800VDC asociada a Nvidia, reforzando la lectura de que el cambio no es solo de cableado, sino de toda la cadena de conversión y control de potencia. Más información oficial de Nvidia sobre su plataforma y sistemas puede consultarse en su portal corporativo: https://www.nvidia.com/, y el estado del ecosistema Open Compute Project en: https://www.opencompute.org/.

Arquitectura HVDC 800V en datacenters y el reto de los picos de carga

La discusión no se limita a “entregar más potencia”: los workloads de IA introducen step-load transients agresivos. En milisegundos, un conjunto grande de GPUs puede pasar de estados cercanos a idle a demandas máximas durante operaciones sincronizadas (por ejemplo, all-reduce), amplificando fluctuaciones de corriente y tensión en la red de distribución interna. Esto abre preocupaciones de ingeniería como voltage droop en raíles de 48V o 12V, y efectos de dI/dt que provocan caídas momentáneas de voltaje en busbars y cableado.

Por eso, en paralelo al salto de tensión, la industria está elevando el rol del energy storage dentro del rack o a nivel de distribución como elemento de primera clase para amortiguar picos sub-segundo y estabilizar la entrega a aceleradores.

Cierre: por qué el estándar de la próxima década se juega en el bus DC

Con racks como el GB200 NVL72 moviendo el objetivo hacia los 120 kW por rack (y picos superiores en determinadas condiciones), el debate ya no es si 48V “funciona”, sino cuánto cuesta escalarlo en corriente, cobre, calor y riesgo operativo. En este escenario, la arquitectura HVDC 800V en datacenters se perfila como el camino más directo para sostener la densidad energética de las AI factories, reduciendo pérdidas resistivas y liberando margen físico dentro del rack para refrigeración y servicios, mientras el ecosistema de rectificadores, convertidores y electrónica de potencia se alinea para la transición.

Compartir:

Déjanos tu comentario

Scroll al inicio