A Microsoft apresentou oficialmente o Azure Maia 200, a sua mais recente geração de aceleradores de Inteligência Artificial concebidos internamente, marcando um passo decisivo na estratégia de independência face a fornecedores externos. Este novo chip, fabricado através do avançado processo de 3 nanómetros (N3P) da TSMC, foi desenhado especificamente para tarefas de inferência em larga escala nos centros de dados da Azure. Com uma arquitectura que dá prioridade à eficiência energética e ao desempenho por dólar, o Maia 200 já iniciou a sua implementação em centros de dados nos Estados Unidos, prometendo superar as ofertas personalizadas de rivais directos como a Amazon e a Google.
Poder de processamento e arquitectura de memória
O salto tecnológico do Maia 200 é visível nos números brutos. O chip alberga impressionantes 140 mil milhões de transístores e é capaz de atingir 10 petaflops de computação em formato FP4. Para contextualizar, este valor é três vezes superior ao que a Amazon oferece com o Trainium3, posicionando a Microsoft na liderança dos chips desenvolvidos “in-house” pelos principais players da indústria.
No que toca à memória, um dos principais estrangulamentos no processamento de IA moderna, a Microsoft não poupou recursos. O Maia 200 está equipado com 216 GB de memória HBM3e, oferecendo uma largura de banda de 7 TB/s. Adicionalmente, conta com 272 MB de SRAM integrada no die, organizada numa hierarquia de múltiplos níveis (Cluster-level e Tile-level SRAM). Esta estrutura foi desenhada para distribuir as cargas de trabalho de forma inteligente, minimizando a latência e maximizando a utilização dos recursos de memória durante a inferência de modelos complexos.
Eficiência energética: o desafio à Nvidia
Embora a comparação directa com o hardware da Nvidia seja complexa — uma vez que o Maia 200 não está disponível para venda a terceiros e o ecossistema de software da Nvidia (CUDA) continua a ser o padrão da indústria — a Microsoft foca-se na métrica da eficiência. O Maia 200 opera com um TDP (Thermal Design Power) de 750 W, significativamente inferior aos 1400 W anunciados para o Blackwell B300 Ultra da Nvidia.
A Microsoft afirma que o Maia 200 oferece um desempenho por dólar 30% superior ao do seu antecessor, o Maia 100. Contudo, a comparação directa entre as duas gerações da casa é dificultada pela própria tecnológica, uma vez que as folhas de especificações oficiais de ambos os chips apresentam métricas que raramente se sobrepõem, impossibilitando uma análise linear da evolução geracional. Sabe-se, no entanto, que o Maia 200 opera a temperaturas mais elevadas e exige uma infra-estrutura de arrefecimento mais robusta do que a primeira geração destes chips.
Sustentabilidade e o conceito de “Permissão Social”
O lançamento do Maia 200 não é apenas um anúncio técnico; é uma declaração política e ambiental. Satya Nadella, CEO da Microsoft, tem sublinhado a importância de as empresas de tecnologia garantirem a “permissão social” para continuarem a expandir os seus centros de dados. Num momento em que o consumo energético da IA está sob escrutínio público, o foco da Microsoft na eficiência do Maia 200 serve como um escudo contra as críticas dos ambientalistas.
O chip, originalmente conhecido pelo nome de código “Braga”, enfrentou alguns atrasos no seu desenvolvimento. Embora estivesse previsto para uma implementação mais célere, a sua chegada coincide agora com uma fase crítica de expansão dos serviços Azure. Após a implementação inicial na região “US Central”, a Microsoft planeia levar este hardware para Phoenix, no Arizona, integrando-o numa infra-estrutura heterogénea onde coexistirá com aceleradores de outros fabricantes.
Olhando para o futuro, os rumores do sector indicam que a Microsoft já prepara a próxima iteração dos seus chips, que poderá abandonar as fábricas da TSMC em favor do processo 18A da Intel Foundry, consolidando uma estratégia de diversificação de fornecedores e soberania tecnológica no campo dos semicondutores.