Anthropic anuncia run rate de 30.000 M$ y consumirá 3,5 GW de TPUs de próxima generación de Google

Anthropic 3,5 GW de TPUs de Google para capacidad de cómputo AI a escala gigavatio

Anthropic anuncia run rate de 30.000 M$ y consumirá 3,5 GW de TPUs de próxima generación de Google

Compartir:

Anthropic anuncia run rate de 30.000 M$ y consumirá 3,5 GW de TPUs de próxima generación de Google

Anthropic 3,5 GW de TPUs de Google: Broadcom ha revelado en un filing regulatorio que desarrollará y suministrará Tensor Processing Units (TPUs) personalizadas para las futuras generaciones de chips de AI de Google, y que Anthropic planea acceder, a partir de 2027, a aproximadamente 3,5 gigavatios de capacidad de cómputo basada en esas TPUs. La cifra sitúa el acuerdo en la liga de los grandes despliegues de datacenter y refuerza la carrera por asegurarse suministro de aceleradores ante la demanda de Large Language Models (LLM).

La información aparece en una comunicación corporativa de Broadcom que agrupa dos compromisos: un acuerdo a largo plazo para desarrollar y suministrar TPUs custom para Google, y un “Supply Assurance Agreement” para entregar componentes de networking y otros elementos destinados a los racks de AI de próxima generación de Google, con horizonte de suministro “hasta 2031”.

Anthropic 3,5 GW de TPUs de Google: qué se sabe del acuerdo

Según el texto del documento, Anthropic “accederá a través de Broadcom aproximadamente 3,5 gigavatios” como parte de “múltiples gigavatios” de capacidad de cómputo basada en TPUs de próxima generación comprometida por la compañía. No se han detallado públicamente métricas de rendimiento, número de chips, coste por unidad o configuración de los racks, por lo que el dato relevante hoy es el orden de magnitud energético/capacidad comprometida y el calendario citado (2027).

Broadcom también introduce una nota poco habitual para este tipo de anuncios: advierte de que el consumo de esa capacidad por parte de Anthropic depende de su “continued commercial success” y menciona conversaciones con “operational and financial partners” ligadas al despliegue. En otras palabras, la propia compañía reconoce, por escrito y en un contexto regulatorio, que la ejecución financiera y operativa del plan no está exenta de riesgo.

Broadcom amplía su papel en el stack de AI de Google

Además del trabajo sobre TPUs, Broadcom suministrará componentes de networking y otras piezas para los racks de AI de próxima generación de Google hasta 2031. En el contexto de datacenters orientados a entrenamiento e inferencia, el networking (interconexión, switching y componentes asociados) es un cuello de botella crítico, y el acuerdo apunta a una estrategia integral de Google para asegurar tanto compute (TPU) como infraestructura de interconexión.

Google y Broadcom ya habían colaborado anteriormente en TPUs custom, por lo que este anuncio formaliza la continuidad del modelo: chips especializados y diseñados a medida para cargas de trabajo de AI, con un socio de silicio que industrializa la producción.

Anthropic eleva el listón con cifras de ingresos y clientes

En una comunicación pública paralela sobre el acuerdo, Anthropic declara que su run-rate revenue “ha superado los 30.000 millones de dólares”, frente a “aproximadamente 9.000 millones” a finales de 2025. La compañía también afirma que, tras anunciar su Series G en febrero, más de 500 clientes enterprise gastaban más de 1 millón de dólares anualizado, y que esa cifra supera ahora los 1.000, duplicándose en menos de dos meses.

Ese mensaje funciona como contrapeso a la cautela expresada por Broadcom: Anthropic intenta anclar la narrativa en tracción comercial y base de clientes, justo cuando se habla de compromisos de cómputo a escala de gigavatios.

Multi-cloud y estrategia de chips: TPUs, Trainium y Nvidia

Google subraya que Anthropic, además de consumir TPUs, es un cliente relevante de Google Cloud. Anthropic, por su parte, señala que también utiliza AWS Trainium y hardware de Nvidia para “match workloads to the chips best suited for them”. La lectura para el sector es clara: incluso los grandes laboratorios de AI están diversificando proveedores y arquitecturas para optimizar coste, disponibilidad y rendimiento por carga de trabajo.

Fuentes: Broadcom Investors, Google Cloud, Anthropic.

Con Anthropic 3,5 GW de TPUs de Google como referencia, el anuncio consolida una tendencia: los acuerdos de suministro de AI compute ya se negocian a años vista (hasta 2031 en networking) y con magnitudes propias de infraestructura energética, mientras el mercado exige señales de estabilidad financiera y ejecución para sostener despliegues de este tamaño.

Compartir:

Déjanos tu comentario

Scroll al inicio