AWS Trainium3: O Chip de IA que Desafia a NVIDIA e Reduz Custos

O novo chip Trainium3 da AWS é a aposta da Amazon para reduzir a dependência da NVIDIA no mercado de IA.

A Amazon Web Services (AWS) acaba de lançar a terceira geração de seu chip de Inteligência Artificial (IA), o Trainium3, durante o evento re:Invent 2025. Este movimento estratégico intensifica a competição no mercado de aceleradores de IA, dominado pela NVIDIA, e promete oferecer aos clientes da AWS um desempenho até 4,4 vezes superior ao da geração anterior, o Trainium2. A novidade chega em um momento crucial, onde a demanda por infraestrutura de treinamento de modelos de IA de grande escala está em seu auge.

O lançamento do Trainium3 reforça a estratégia da Amazon de desenvolver seus próprios chips customizados, visando otimizar a performance e, principalmente, reduzir os custos operacionais para seus clientes de nuvem. Com a crescente complexidade e o tamanho dos modelos de IA, a necessidade de hardware especializado e eficiente nunca foi tão grande, e a AWS se posiciona como uma alternativa robusta e mais acessível frente às soluções de terceiros.

O que o Trainium3 Traz de Novo em Performance?

O Trainium3 é o primeiro chip de IA da AWS fabricado com tecnologia de 3 nanômetros (3nm), o que por si só já representa um avanço significativo em termos de eficiência e densidade de transistores. Os novos Amazon EC2 Trn3 UltraServers, que abrigam o Trainium3, podem ser configurados com até 144 chips, formando um sistema integrado que oferece um poder de processamento massivo. A AWS afirma que essa arquitetura entrega até 4,4 vezes mais desempenho de computação e uma eficiência energética 4 vezes maior em comparação com os Trainium2 UltraServers.

Para o mercado brasileiro, que busca cada vez mais soluções de IA para otimizar seus negócios, o Trainium3 pode significar uma redução de até 50% nos custos de treinamento e inferência de modelos, conforme observado por clientes que já utilizam a família Trainium. Essa economia é um fator decisivo para startups e grandes empresas que operam com orçamentos apertados, mas que não podem abrir mão da inovação em IA.

Como o Trainium3 se Compara aos Chips da NVIDIA?

Embora a AWS não compare diretamente o Trainium3 com modelos específicos da NVIDIA, como o H100, o objetivo é claro: oferecer uma alternativa de alto desempenho e custo-benefício superior. A Amazon tem investido pesadamente em sua linha de chips, que inclui também o Inferentia para inferência de IA, buscando criar um ecossistema completo e otimizado para sua nuvem. A estratégia é atrair clientes que buscam fugir da alta precificação e da escassez de GPUs da NVIDIA, um problema que tem afetado o mercado global de IA. A AWS, inclusive, já havia feito um acordo bilionário com a OpenAI para uso de chips NVIDIA em sua infraestrutura, mostrando a complexidade da corrida de IA. Para saber mais sobre a disputa de mercado, confira o artigo: TPUs do Google: O Chip de IA que Desafia a Hegemonia da NVIDIA.

A disponibilidade imediata do Trainium3 UltraServers no AWS Cloud permite que empresas como Anthropic, Karakuri e Decart já estejam utilizando a nova tecnologia para reduzir custos e acelerar seus projetos de IA. A Decart, por exemplo, está alcançando uma inferência 4 vezes mais rápida para vídeos generativos em tempo real, com metade do custo em comparação com GPUs tradicionais. Isso demonstra o impacto direto e imediato que o novo chip da Amazon está gerando no setor.

Qual o Impacto do Lançamento no Futuro da IA?

O lançamento do Trainium3 é mais um capítulo na “guerra dos chips” de IA, onde grandes players como Amazon, Google (com seus TPUs) e Microsoft (com o Maia) buscam criar suas próprias soluções para diminuir a dependência da NVIDIA. Essa competição é extremamente benéfica para o mercado, pois impulsiona a inovação, aumenta a oferta de hardware e, consequentemente, tende a reduzir os custos para o consumidor final, democratizando o acesso à infraestrutura de IA de ponta. A tendência é que a AWS continue aprimorando sua linha de chips, integrando-os cada vez mais com seus serviços de nuvem, como o Amazon Bedrock, para oferecer soluções de IA mais eficientes e personalizadas.

A Amazon também anunciou o Graviton5, seu novo processador de CPU, que promete até 25% mais desempenho que a geração anterior, com 192 núcleos por chip e cache 5 vezes maior. Embora seja um chip de CPU e não de IA, ele complementa a estratégia da AWS de oferecer hardware customizado e otimizado para todos os tipos de cargas de trabalho em nuvem, desde as mais intensivas em IA até as mais tradicionais.

Com o Trainium3, a AWS não apenas se consolida como um player importante na fabricação de chips, mas também oferece uma solução de ponta para o treinamento de modelos de IA, um passo fundamental para o futuro da tecnologia e para a soberania digital das empresas que dependem da nuvem.