A Microsoft garantiu seu lugar no topo da cadeia alimentar de hardware de IA, gastando mais do que todos os gigantes da tecnologia no jogo e comprando 485.000 chips Nvidia Hopper este ano. Isso deixa concorrentes como Meta, Amazon e Google sem fôlego na corrida armamentista da IA.
Meta chegou mais perto, mas ainda ficou muito atrás, com 224.000 fichas. Amazon e Google? Nem perto disso, com pedidos de 196 mil e 169 mil chips Hopper, respectivamente.
As GPUs da Nvidia se tornaram o padrão ouro do Vale do Silício, gerando um frenesi de investimentos em data centers para suportar modelos de IA de ponta, como o ChatGPT. A Microsoft, com sua infraestrutura em nuvem Azure, está apostando tudo, apostando alto na IA como o futuro da tecnologia.
Os chips Hopper da Nvidia, aclamados como as joias da coroa do processamento de IA, têm sido o produto tecnológico mais quente nos últimos dois anos. Eles se tornaram ferramentas essenciais para treinar e executar modelos de IA de última geração.
Analistas da Omdia estimam que as compras da empresa mais do que triplicaram em comparação com o ano passado, uma resposta direta à disparada da demanda após o grande sucesso do ChatGPT.
“Uma boa infraestrutura de data center… requer vários anos de planejamento”, disse Alistair Speirs, diretor sênior de Infraestrutura Global do Azure na Microsoft. A empresa também está se posicionando para dominar o mercado de nuvem, alugando seu hardware aos clientes através do Azure.
A análise da Omdia mostra que o volume de Hopper da Microsoft supera os 230.000 chips comprados pela ByteDance epela Tencent juntas. No entanto, os chips enviados para a China eram modelos H20 modificados – rebaixados para cumprir as restrições de exportação dos EUA.
A Nvidia ajustou esses chips para limitar suas capacidades, mas mesmo com potência reduzida, as empresas chinesas estão adquirindo-os.
Só neste ano, as empresas de tecnologia desembolsaram impressionantes US$ 229 bilhões em servidores, com a Microsoft liderando o ataque. Os gastos de capital de US$ 31 bilhões da empresa a tornam a maior gastadora no boom global de infraestrutura de IA, ofuscando os US$ 26 bilhões da Amazon.
De acordo com Omdia, as GPUs Nvidia representaram 43% dos gastos com servidores em 2024, consolidando o domínio da empresa em hardware de IA. Os chips Hopper da Nvidia podem ser a estrela, mas a Microsoft não está colocando todos os ovos na mesma cesta. Ela começou a lançar seus próprios chips Maia, instalando 200 mil unidades este ano.
Entretanto, a Amazon tem aumentado a produção dos seus chips Trainium e Inferentia, implantando 1,3 milhões de unidades para alimentar as suas ambições de IA. Está até construindo um novo cluster de IA com centenas de milhares de chips Trainium para a Anthropic , um concorrente da OpenAI que apoiou com um investimento de US$ 8 bilhões.
Meta e Google também estão dobrando seus chips internos, cada um implantando cerca de 1,5 milhão de unidades de seus designs personalizados.
Um sistema passo a passo para lançar sua carreira na Web3 e conseguir empregos criptográficos com altos salários em 90 dias.