Cisco presenta el switch chip Silicon One G300 de 102,4 Tbps para redes de IA

switch chip 102,4 Tbps para IA de Cisco con Silicon One G300, P4 y ópticas 1.6T

Cisco presenta el switch chip Silicon One G300 de 102,4 Tbps para redes de IA

Compartir:

Cisco presenta el switch chip Silicon One G300 de 102,4 Tbps para redes de IA

Cisco ha hecho oficial el Silicon One G300, un switch chip 102,4 Tbps para IA de Cisco diseñado para escalar la conectividad de clústeres de AI training e inference. El ASIC entra de lleno en la misma liga que los 102,4 Tbps de Broadcom y Nvidia, pero la compañía intenta diferenciarse con un motor de congestión “collective” y soporte de P4 programmability para extender funciones por software.

Qué aporta el switch chip 102,4 Tbps para IA de Cisco

En especificaciones base, el G300 integra 512 serializers/deserializers (SerDes) de 200 Gbps, una configuración que habilita un gran radix (más puertos) y permite agregar enlaces para alcanzar velocidades de puerto de hasta 1,6 Tbps. Cisco afirma que esta densidad facilita redes de gran escala: menciona despliegues de hasta 128.000 GPUs con 750 switches, frente a 2.500 en escenarios previos de menor densidad.

En la práctica, este salto de capacidad responde a un patrón de mercado: el ancho de banda por ASIC en switching Ethernet está avanzando hacia 102,4 Tbps como nuevo “sweet spot” para fabrics de IA. Por eso, más allá del throughput bruto, la diferenciación se está moviendo a cómo se gestiona la congestión, la telemetría y la adaptabilidad del plano de datos.

Congestion control: buffer compartido y balanceo por ruta

Cisco sostiene que el punto diferencial del G300 está en su “collective networking engine”, que combina un packet buffer totalmente compartido con un path-based load balancer orientado a reducir hotspots de congestión y mejorar utilización de enlaces, latencia y tiempo total de ejecución (time to completion) en trabajos de IA.

Según la compañía, el balanceador monitoriza flujos, detecta puntos de congestión y coordina información entre switches G300 para construir una visión global del estado del clúster. En sus cifras, este enfoque podría lograr un 33% más de link utilization y recortar tiempos de entrenamiento hasta un 28% frente a enfoques basados en packet spraying. Aun así, al tratarse de comparativas proporcionadas por el fabricante, el impacto real dependerá de la topología, del patrón de tráfico y de la implementación concreta del fabric.

P4 programmability: el software como palanca competitiva

Otro mensaje central del anuncio es la P4 programmability. Cisco plantea que poder reprogramar el switch chip 102,4 Tbps para IA de Cisco permitiría añadir capacidades y roles nuevos mediante updates de software, alargando la vida útil del hardware y reduciendo ciclos de sustitución en redes de datacenter. El uso de P4 como mecanismo de evolución del data plane también se está consolidando en otros actores del ecosistema, especialmente donde las especificaciones (o extensiones) evolucionan rápido por presión de la IA.

Con este movimiento, Cisco no solo apunta a equipar sus propios sistemas, sino también a competir en merchant silicon, un terreno dominado históricamente por Broadcom en switching para Ethernet de alto rendimiento.

Sistemas: N9000 y Cisco 8000 con OSFP de 1,6 Tbps

Cisco encuadra el G300 dentro de sus familias N9000 y Cisco 8000, con configuraciones que, según lo anunciado, incorporarán 64 cages OSFP de 1,6 Tbps. Esto posiciona la plataforma para la siguiente ola de racks de IA, donde la interconexión dentro del pod y entre pods se convierte en uno de los principales cuellos de botella.

Ópticas 1.6T y LPO: eficiencia energética como prioridad

Junto al ASIC, Cisco también ha presentado nuevas ópticas pluggable de 1,6 Tbps, con posibilidad de breakout en el extremo remoto de hasta ocho enlaces de 200 Gbps. Además, anunció ópticas 800 Gbps Linear Pluggable Optics (LPO), que prescinden del digital signal processor (DSP) y del retimer dentro del módulo para reducir consumo, desplazando ese procesamiento hacia el propio G300.

Cisco no detalló el consumo exacto de sus transceptores LPO, pero sí indicó que, combinados con sistemas N9000 o Cisco 8000, los clientes podrían ver una reducción aproximada del 30% en la potencia del switch. En entornos donde se despliegan grandes cantidades de módulos ópticos, incluso recortes parciales por unidad se traducen en impactos relevantes sobre energía, refrigeración y densidad por rack.

Sin anuncios de CPO por ahora

Aunque el sector está empujando hacia Co-Packaged Optics (CPO) para mejorar eficiencia y, en teoría, fiabilidad al acercar la óptica al paquete del switch, Cisco no realizó anuncios públicos de CPO en este lanzamiento. La empresa ha mostrado antes demostraciones de la tecnología, pero remite su productización a una alineación de negocio y calendario.

También: mayor disponibilidad del routing silicon P200 (51,2 Tbps)

En paralelo, Cisco comunicó una ampliación de disponibilidad de Silicon One P200, un chip de routing de 51,2 Tbps orientado a interconectar clústeres de entrenamiento a distancias de hasta 1.000 km. Además del router Cisco 8223 previamente anunciado, Cisco afirma que el P200 llega a la línea N9000 y como line card de 28,8 Tbps, reforzando la narrativa de “multi-datacenter AI networking”.

Calendario y contexto competitivo

Cisco prevé que los chips G300, los sistemas asociados y las ópticas comiencen a enviarse más adelante este año, alineándose con la próxima generación de plataformas de compute para IA. El anuncio sitúa a la compañía en una carrera donde el throughput de 102,4 Tbps se está volviendo base, y el margen de diferenciación se desplaza hacia congestion control, telemetría y programabilidad.

Para más información oficial sobre la plataforma Silicon One, Cisco centraliza recursos en su sitio corporativo: Cisco. En el contexto competitivo, Broadcom y su línea de switching para datacenter publican especificaciones y posicionamiento de sus ASICs de red en: Broadcom.

Con este movimiento, el switch chip 102,4 Tbps para IA de Cisco pasa de promesa a hoja de ruta concreta: más densidad por switch, apuesta por P4 y un paquete de control de congestión que busca recortar tiempos de entrenamiento en redes Ethernet a escala de decenas de miles de GPUs.

Compartir:

También podría interesarte

Déjanos tu comentario

Scroll al inicio