OCP e IOWN impulsan un estándar para datacenters distribuidos orientados a AI
El Open Compute Project (OCP) ha anunciado una alianza con el IOWN Global Forum para diseñar un estándar de datacenters distribuidos para AI bajo el paraguas de una nueva iniciativa llamada “AI Computing Continuum”. El objetivo: definir una infraestructura abierta que conecte de forma fluida datacenters centralizados con despliegues regionales y de edge, minimizando la latencia y soportando un fuerte crecimiento del tráfico de datos asociado a workloads de inferencing y entrenamiento distribuido.
Según el planteamiento presentado por ambas organizaciones, el “continuum” no se limitará a nodos de edge aislados: también debe enlazar recursos ubicados en regional data centers, colocation facilities, telcos, datacenters privados, fábricas e incluso oficinas, de modo que las aplicaciones de AI puedan ejecutarse donde resulte más eficiente sin penalizaciones por conectividad.
Qué aporta IOWN al estándar de datacenters distribuidos para AI
La pieza clave de la alianza es el uso del stack IOWN, centrado en redes all-optical (todo óptico) basadas en tecnologías de comunicación fotónica. En el anuncio, se asume que para que el estándar de datacenters distribuidos para AI sea viable, las interconexiones entre sedes deben ser de muy alta capacidad y de latencia muy baja, ya que la experiencia de usuario y la coordinación de recursos distribuidos se degradan rápidamente cuando los enlaces son lentos o congestionados.
OCP cita como motivación la necesidad de sostener el aumento de volumen de datos y tráfico de red entre ubicaciones. En ese contexto, IOWN ha divulgado previamente objetivos de mejora de capacidad de transmisión de hasta 125x y reducción de latencia hasta el 0,5% de los niveles actuales, cifras que se mencionan como referencia del potencial del enfoque óptico, sin que se detallen plazos de disponibilidad para despliegues masivos en hyperscalers.
Reparto de responsabilidades entre OCP e IOWN
En términos de ejecución, la agenda principal pasa por crear “una hoja de ruta” para infraestructura compute y red multi-sitio, con alto ancho de banda y baja latencia. El IOWN Global Forum se encargará de diseñar una arquitectura de comunicaciones alineada con sus tecnologías ópticas y orientada a las necesidades de industrias de gran escala. OCP, por su parte, trabajará en especificaciones de hardware abierto que puedan conectarse al equipamiento y arquitectura definidos por IOWN, apoyándose en su experiencia previa diseñando infraestructura adoptada por operadores hyperscale.
Por qué ahora: el giro hacia la AI distribuida
El movimiento llega en un momento en el que el mercado asume que muchos workloads de AI migrarán parcialmente al edge para ejecutar inferencing cerca del usuario y reducir latencia. Pero ese cambio no elimina la dependencia de datacenters centrales: la tendencia apunta a arquitecturas híbridas donde el cómputo se reparte entre cloud, regional y edge según costes, disponibilidad energética, soberanía de datos y requisitos de rendimiento. En ese escenario, un estándar de datacenters distribuidos para AI busca evitar que cada proveedor construya su propia solución propietaria de extremo a extremo.
También hay una lectura estratégica: aunque la industria está invirtiendo cantidades históricas en megadatacenters y aceleradores, la iniciativa sugiere que OCP quiere anticiparse a prioridades emergentes en las que la conectividad entre ubicaciones y la composición de recursos distribuidos se convierten en un factor limitante tan crítico como la capacidad de GPU.
Adopción: la oportunidad (y el reto) para IOWN
La alianza supone un impulso relevante para IOWN, que ya ha atraído a numerosos actores del sector, pero que todavía no se percibe como un stack “listo para desplegar” de forma sencilla a escala hyperscaler, y menos aún en organizaciones mainstream. OCP, en cambio, cuenta con un ecosistema amplio de adopción, por lo que su respaldo puede elevar el interés y acelerar pruebas y despliegues si el roadmap cristaliza en especificaciones prácticas.
Calendario y próximos pasos
Por ahora, ni OCP ni el IOWN Global Forum han concretado fechas de entrega para sus respectivas contribuciones al estándar de datacenters distribuidos para AI. Lo inmediato es la definición del roadmap técnico y de la arquitectura de comunicaciones, seguida por la traducción de esa arquitectura a especificaciones de hardware abierto e interoperable.
Fuentes oficiales: Open Compute Project (OCP) y IOWN Global Forum.
Si la iniciativa cumple su promesa, el estándar de datacenters distribuidos para AI podría convertirse en una capa de referencia para interconectar compute y red entre cloud y edge con latencia ultrabaja, un requisito cada vez más determinante a medida que la AI se despliega fuera de los grandes “GPU clusters” centralizados.



