Microsoft compró el doble de los chips insignia de Nvidia que cualquiera de sus mayores rivales en Estados Unidos y China este año, ya que el mayor inversionista de OpenAI aceleró su inyección de capital en infraestructura de inteligencia artificial (IA).
Los analistas de la consultora de tecnología Omdia estiman que Microsoft compró 485 mil chips Hopper de Nvidia este año. Eso coloca a Microsoft muy por delante del siguiente cliente más importante de Nvidia en EU, Meta, que compró 224 mil, así como de sus rivales de computación en la nube Amazon y Google.
Con una demanda que superó la oferta de las unidades de procesamiento de gráficos más avanzadas de Nvidia durante gran parte de los últimos dos años, la acumulación que hace Microsoft de chips le da una ventaja en la carrera por desarrollar la próxima generación de sistemas de IA.
Este año las grandes compañías de tecnología gastaron decenas de miles de millones de dólares en centros de datos que utilizan los últimos chips de Nvidia, que se han convertido en el producto más buscado en Silicon Valley desde que el debut de ChatGPT hace dos años puso en marcha un aumento sin precedente de inversión en IA.
La infraestructura de nube Azure de Microsoft se utilizó para entrenar el último modelo o1 de OpenAI mientras compiten contra un Google resurgente, startups como Anthropic y xAI, de Elon Musk, y rivales en China por el dominio de la próxima generación de la computación.
Omdia estima que ByteDance y Tencent ordenaron cada uno alrededor de 230 mil chips de Nvidia este año, incluido el modelo H20, una versión menos potente que se modificó para cumplir con los controles de exportación de EU para los clientes chinos.
Amazon y Google, que junto con Meta intensifican el despliegue de sus propios chips de IA personalizados como alternativa a los de Nvidia, compraron 196 mil y 169 mil Hopper, respectivamente.
Omdia analiza los gastos de capital, los envíos de servidores y la inteligencia de la cadena de suministro divulgados por las empresas para calcular sus estimaciones.
El valor de Nvidia, que ahora empieza a lanzar Blackwell, el sucesor de Hopper, se disparó a más de 3 billones de dólares este año, a medida que las grandes compañías de tecnología se apresuran a ensamblar grupos cada vez más grandes de sus GPU.
Sin embargo, el extraordinario aumento de las acciones disminuyó en los últimos meses en medio de las preocupaciones sobre un crecimiento más lento, la competencia de los propios chips de IA personalizados de las grandes empresas de tecnología y la posible disrupción de su negocio en China por la administración entrante de Donald Trump.
ByteDance y Tencent surgieron como dos de los principales clientes de Nvidia este año, a pesar de las restricciones del gobierno estadunidense sobre las capacidades de los chips de IA estadunidenses que se pueden vender en China.
Microsoft, que invirtió 13 mil millones de dólares en OpenAI, es el grupo más agresivo de las grandes tecnológicas de EU en la construcción de infraestructura de centros de datos, tanto para ejecutar sus propios servicios de inteligencia artificial, como su asistente Copilot, como para alquilarlos a clientes a través de su división Azure.
Los pedidos de chips Nvidia de Microsoft son más del triple de la cantidad de la misma generación de procesadores de IA de Nvidia que compró en 2023, cuando se apresuraba a aumentar la producción de Hopper luego del gran éxito de ChatGPT.
“Las buenas infraestructuras de centros de datos son proyectos muy complejos que requieren mucho capital”, dijo Alistair Speirs, director sénior de Azure Global Infrastructure de Microsoft, a Financial Times. “Requieren varios años de planeación, por lo que es importante pronosticar dónde estará nuestro crecimiento con un pequeño colchón”.
De acuerdo con Omdia, las compañías de tecnología de todo el mundo gastarán un estimado de 229 mil millones de dólares en servidores en 2024, lideradas por 31 mil millones de Microsoft y 26 mil millones de Amazon. Los 10 principales compradores de infraestructuras de centros de datos —que ahora incluyen xAI y CoreWeave— representan 60 por ciento de la inversión global en potencia informática.
Vlad Galabov, director de investigación de la nube y centros de datos de Omdia, dijo que alrededor de 43 por ciento del gasto en servidores se destinó a Nvidia en 2024.
“Las GPU de Nvidia representaron una proporción tremendamente alta del gasto de capital en servidores”, dijo. “Estamos cerca del punto máximo”.
Aunque Nvidia sigue dominando el mercado de chips de inteligencia artificial, su rival de Silicon Valley, AMD, ha logrado hacer avances. Meta compró 173 mil chips MI300 de AMD este año, mientras que Microsoft compró 96 mil, según Omdia.
Las grandes compañías de tecnología también aumentaron el uso de sus propios chips de inteligencia artificial este año, en un intento por reducir su dependencia de Nvidia. Google, que tiene una década desarrollando sus “unidades de procesamiento tensorial”, o TPU, y Meta, que estrenó la primera generación de su chip Meta Training and Inference Accelerator el año pasado, desplegaron cada una alrededor de 1.5 millones de sus propios chips.
Amazon, que lleva a cabo fuertes inversiones en sus chips Trainium e Inferentia para clientes de computación en la nube, este año desplegó alrededor de 1.3 millones de chips de ese tipo. Amazon dijo este mes que planea construir un nuevo cluster utilizando cientos de miles de sus últimos chips Trainium para Anthropic, un rival de OpenAI en el que Amazon ya invirtió 8 mil millones de dólares, para entrenar a la próxima generación de sus modelos de IA.
Sin embargo, Microsoft se adelantó mucho en su esfuerzo por construir un acelerador de inteligencia artificial que pueda competir con el de Nvidia, ya que este año solo ha instalado alrededor de 200 mil de sus chips Maia.
Speirs dijo que el uso de los chips de Nvidia aún requiere que Microsoft haga inversiones significativas en su propia tecnología para ofrecer un servicio “único” a los clientes.
“Construir la infraestructura de inteligencia artificial, en nuestra experiencia, no solamente se trata de tener el mejor chip, sino también de tener los componentes de almacenamiento adecuados, la infraestructura adecuada, la capa de software adecuada, la capa de gestión de host (supervisión y mantenimiento de los servidores) adecuada, la corrección de errores y todos estos componentes más para construir ese sistema”, dijo.