Microsoft se ha asegurado su lugar en la cima de la cadena alimentaria de hardware de IA, gastando más que todos los gigantes tecnológicos del juego y comprando 485.000 chips Nvidia Hopper este año. Esto deja a competidores como Meta, Amazon y Google sin aliento en la carrera armamentista de la IA.
Meta estuvo más cerca, pero aún muy por detrás, con 224.000 fichas. ¿Amazon y Google? Ni siquiera cerca, con pedidos de 196.000 y 169.000 chips Hopper respectivamente.
Las GPU de Nvidia se han convertido en el estándar de oro de Silicon Valley, lo que ha provocado un frenesí de inversiones en centros de datos para respaldar modelos de inteligencia artificial de vanguardia como ChatGPT. Microsoft, con su infraestructura de nube Azure, está apostando fuerte por la IA como el futuro de la tecnología.
Los chips Hopper de Nvidia, aclamados como las joyas de la corona del procesamiento de IA, han sido el producto tecnológico más popular durante dos años. Se han convertido en herramientas fundamentales para entrenar y ejecutar modelos de IA de próxima generación.
Los analistas de Omdia estiman que las compras de la compañía se triplicaron con creces en comparación con el año pasado, una respuesta directa al aumento vertiginoso de la demanda tras el gran éxito de ChatGPT.
"Una buena infraestructura de centro de datos... requiere varios años de planificación", dijo Alistair Speirs, director senior de Azure Global Infrastructure en Microsoft. La empresa también se está posicionando para dominar el mercado de la nube, alquilando su hardware a clientes a través de Azure.
El análisis de Omdia muestra que el botín Hopper de Microsoft eclipsa los 230.000 chips comprados por ByteDance yTencent combinados. Sin embargo, los chips enviados a China eran modelos H20 modificados, degradados para cumplir con las restricciones de exportación de Estados Unidos.
Nvidia modificó estos chips para limitar sus capacidades, pero incluso con potencia reducida, las empresas chinas los están adquiriendo.
Sólo este año, las empresas de tecnología han desembolsado la asombrosa cantidad de 229 mil millones de dólares en servidores, con Microsoft a la cabeza. El gasto de capital de 31 mil millones de dólares de la compañía la convierte en la que más gasta en el auge global de la infraestructura de IA, eclipsando los 26 mil millones de dólares de Amazon.
Según Omdia, las GPU de Nvidia representaron el 43% del gasto en servidores en 2024, lo que consolidó el dominio de la empresa en hardware de IA. Los chips Hopper de Nvidia pueden ser la estrella, pero Microsoft no está poniendo todos sus huevos en la misma canasta. Ha comenzado a implementar sus propios chips Maia, instalando 200.000 unidades este año.
Mientras tanto, Amazon ha estado aumentando la producción de sus chips Trainium e Inferentia, desplegando 1,3 millones de unidades para impulsar sus ambiciones de IA. Incluso está construyendo un nuevo clúster de IA con cientos de miles de chips Trainium para Anthropic , un competidor de OpenAI al que ha respaldado con una inversión de 8 mil millones de dólares.
Meta y Google también están duplicando sus chips internos, cada uno implementando alrededor de 1,5 millones de unidades de sus diseños personalizados.
Un sistema paso a paso para iniciar su carrera en Web3 y conseguir trabajos criptográficos bien remunerados en 90 días.