
A Amazon Web Services revelou o Trainium3, o seu mais recente chip de inteligência artificial desenvolvido internamente, numa jogada calculada para arrancar quota de mercado à Nvidia num sector onde esta detém uma posição quase monopolista. O anúncio surge num momento em que a Nvidia controla entre 80% a 90% do mercado de chips de IA utilizados no treino de modelos de linguagem que alimentam sistemas como o ChatGPT.
O novo processador marca uma mudança de estratégia significativa. Segundo a AWS, o Trainium3 oferece mais de quatro vezes o desempenho computacional do seu antecessor, consumindo 40% menos energia. A empresa posiciona o chip como capaz de reduzir os custos de treino e operação de modelos de IA em até 50% quando comparado com sistemas equivalentes que usam GPUs, maioritariamente da Nvidia.
“O Trainium3 oferece o melhor preço-desempenho da indústria para treino e inferência de IA em larga escala”, afirmou Matt Garman, CEO da AWS, durante o evento de lançamento em Las Vegas. A empresa destacou que “treinar modelos de ponta agora requer investimentos em infraestrutura que apenas um punhado de organizações pode pagar”, procurando posicionar o Trainium3 como uma forma de democratizar o acesso a poder computacional de IA de alto desempenho.
O timing do lançamento é particularmente significativo. Na semana passada, a Google causou ondas de choque no sector quando foi noticiado que a Meta está em negociações para gastar milhares de milhões em TPUs da Google para os seus centros de dados, sinalizando nova competição para a Nvidia. A notícia provocou uma queda superior a 3% nas ações da empresa de Jensen Huang, enquanto a Alphabet subiu em valor.
O Trainium3 será o primeiro chip da Amazon fabricado com tecnologia de processo de 3 nanómetros, produzido pela TSMC. A AWS anunciou que várias empresas já estão a utilizar a tecnologia, incluindo a Anthropic, criadora do assistente de IA Claude e concorrente da OpenAI. A própria Amazon Bedrock já está a servir cargas de trabalho de produção com o Trainium3.
Num movimento que surpreendeu observadores da indústria, a AWS também anunciou que já está a desenvolver o Trainium4, prevendo-se que ofereça pelo menos três vezes o desempenho do Trainium3 para cargas de trabalho de IA padrão. O chip de próxima geração suportará a tecnologia da Nvidia, permitindo que funcione em conjunto com os servidores e hardware dessa empresa, uma abordagem pragmática que reconhece a realidade do mercado.
A resposta da Nvidia a estas movimentações foi rápida mas calculada. Numa publicação incomum no twitter, a empresa afirmou estar “encantada” com o sucesso da Google antes de acrescentar que “a Nvidia está uma geração à frente da indústria”. A declaração defensiva reflete a consciência crescente de que o domínio aparentemente inabalável da empresa enfrenta desafios reais.
O consumo energético surge como uma das principais preocupações sobre a revolução da IA, com grandes empresas tecnológicas a terem de reduzir ou suspender os seus compromissos de emissões líquidas zero enquanto competem para acompanhar a tecnologia. A eficiência energética 40% superior do Trainium3 posiciona-o como uma alternativa atrativa num momento em que os custos energéticos dos centros de dados dispararam.
O desenvolvimento interno de chips pela Amazon reflete uma tendência mais ampla entre fornecedores de cloud que procuram reduzir a dependência de fornecedores externos enquanto oferecem aos clientes alternativas mais económicas para cargas de trabalho de IA. A Google tem seguido estratégia semelhante com as suas TPUs, originalmente desenvolvidas para uso interno há mais de uma década e agora sendo comercializadas externamente.
Executivos da Google Cloud acreditam que expandir a adoção de TPUs poderia ajudar a empresa a capturar até 10% da receita anual da Nvidia em centros de dados, um montante que valeria dezenas de milhares de milhões de dólares. Considerando que a Nvidia gerou mais de 51 mil milhões de dólares em receitas de centros de dados apenas no segundo trimestre de 2025, os números em jogo são astronómicos.
A AWS planeia disponibilizar os primeiros servidores UltraServer baseados no Trainium3 em 2025. O sistema pode escalar até 144 chips Trainium3, oferecendo até 362 FP8 PFLOPs com latência quatro vezes inferior para treinar modelos maiores mais rapidamente e servir inferência em escala. Para clientes que precisam de escalar ainda mais, os EC2 UltraClusters 3.0 podem conectar milhares de UltraServers contendo até 1 milhão de chips Trainium, 10 vezes a geração anterior.
Analistas notam que hiperscalers e grandes empresas querem diversidade de fornecedores para reduzir pressões de preços e riscos de fornecimento geopolíticos. Mesmo uma modesta rebalanceamento da procura de um comprador do tamanho da Meta poderia alterar o sentimento em todo o sector. Para a Amazon, cada cliente que ganha representa não apenas receita direta, mas validação de que a sua arquitetura pode competir com o ecossistema estabelecido da Nvidia.
A questão permanece se estas alternativas conseguirão desalojar a Nvidia da sua posição dominante. O ecossistema de software maduro da empresa, particularmente a plataforma CUDA utilizada por milhões de programadores em todo o mundo, cria efeitos de rede poderosos que tornam a mudança difícil. Mas com pressões sobre fornecimento, preços elevados e preocupações sobre dependência de um único fornecedor, a motivação para procurar alternativas nunca foi tão forte.









