Microsoft revela chip Maia 200 e afirma desempenho até três vezes superior a rivais

Renê Fraga
4 min de leitura

Principais destaques:

  • O Maia 200 é o novo chip de inferência em inteligência artificial da Microsoft, integrado à infraestrutura de nuvem.
  • Segundo a empresa, o acelerador entrega desempenho superior aos chips de IA do Google e da Amazon em cenários específicos.
  • A novidade promete mais eficiência energética, menor custo por desempenho e ganhos diretos para serviços como Copilot e aplicações baseadas em grandes modelos de linguagem.

A Microsoft apresentou oficialmente o Maia 200, seu chip mais avançado para inferência em inteligência artificial.

Diferentemente de aceleradores voltados ao treinamento de modelos, o novo hardware foi projetado para executar previsões, gerar respostas e processar dados em tempo real, tarefas centrais para sistemas de IA usados no dia a dia corporativo.

De acordo com a empresa, o Maia 200 já está sendo integrado à infraestrutura do Azure e deve ampliar a capacidade de serviços internos antes de chegar a outros clientes da nuvem.

Foco total em inferência e eficiência

O Maia 200 alcança mais de 10 petaflops de desempenho usando precisão FP4, um formato de dados altamente comprimido que prioriza velocidade e eficiência energética.

Em FP8, mais preciso, o chip entrega cerca de 5 petaflops. Na prática, isso significa que um único nó equipado com o Maia 200 consegue rodar modelos de grande porte com margem para crescer no futuro.

Segundo a Microsoft, esse desempenho representa até três vezes mais capacidade em FP4 do que a terceira geração do Amazon Trainium e resultados superiores aos da sétima geração da TPU do Google em FP8.

O foco em inferência reforça a estratégia da empresa de otimizar custos e consumo energético em ambientes de produção.

Tecnologia de ponta e menor custo por desempenho

Um dos diferenciais do Maia 200 está no processo de fabricação. O chip utiliza litografia de 3 nanômetros, produzida pela TSMC, reunindo cerca de 100 bilhões de transistores em uma única peça.

Esse avanço permite, segundo a Microsoft, até 30% mais desempenho por dólar em comparação com sistemas anteriores.

Além disso, o chip traz um sistema de memória pensado para manter pesos e dados dos modelos o mais próximo possível do processamento, reduzindo a necessidade de hardware adicional e facilitando a integração em data centers já existentes.

Impacto direto em serviços e aplicações de IA

Embora o Maia 200 não seja voltado ao consumidor final, seus efeitos devem ser sentidos indiretamente.

Ferramentas como o Copilot e aplicações que utilizam modelos como o GPT-4 tendem a ganhar respostas mais rápidas e maior capacidade de processamento.

Para desenvolvedores, cientistas e empresas que usam IA em larga escala, o novo chip pode acelerar projetos complexos, desde pesquisas científicas até simulações avançadas de clima, biologia e química.

A Microsoft já sinalizou que, no futuro, o Maia 200 terá disponibilidade mais ampla para clientes do Azure, ampliando o alcance dessa nova geração de hardware de IA.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário