
Resumo
- Meta anunciou quatro chips MTIA (300, 400, 450, 500) para IA, com lançamentos semestrais até 2027.
- Os chips usam arquitetura de “chiplets” para atualizações rápidas e são otimizados para diferentes cargas de trabalho de IA.
- A empresa desenvolveu um ecossistema de software nativo em PyTorch, eliminando a necessidade de reescrever códigos para os novos chips.
A Meta anunciou quatro novas gerações de chips proprietários para infraestrutura de inteligência artificial. Os novos modelos — batizados de MTIA 300, 400, 450 e 500 — devem sustentar a operação de LLMs avançados em escala global com custos menores. Segundo a Meta, alguns já estão em fase de testes nos data centers da empresa e outros têm implantação prevista até 2027.
Os quatro compartilham características como a arquitetura baseada em “chiplets”, pequenos blocos independentes de silício que formam o processador. Segundo a Meta, eles permitem atualizações de hardware mais rápidas do que o modelo convencional. Com isso, a empresa afirma ser capaz de lançar um novo processador a cada seis meses, mantendo o hardware alinhado às necessidades do software
A empresa também implementou um ecossistema de software construído nativamente para o padrão PyTorch. Ele dispensa a necessidade de reescrever códigos para que os modelos funcionem nos novos chips.
MTIA (de Meta Training and Inference Accelerator) é uma família desenvolvida pela empresa em parceria com a Broadcom. As duas gerações anteriores — MTIA 1 e MTIA 2i, hoje chamadas de MTIA 100 e MTIA 200 — já foram testadas com os modelos de linguagem da companhia, como o Llama.
MTIA 300

O mais básico da nova linha, o MTIA 300 foi projetado como uma base de baixo custo. Ele é otimizado para trabalhos de classificação e recomendação da Meta (como os algoritmos de feed dos usuários), e já está em produção, segundo a empresa, atuando no treinamento desses algoritmos.
A arquitetura dele combina um chiplet de computação com núcleos RISC-V, dois chiplets de rede e pilhas de memória rápida HBM, que otimizam o trânsito de grandes volumes de dados. O chip opera a 800 W de consumo, oferece 216 GB de memória e 6,1 TB/s de largura de banda, atingindo 1,2 PFLOPs em cálculos no formato FP8/MX8 e 0,6 PFLOPs em BF16 — formatos de baixa precisão que tornam a execução da IA mais rápida e eficiente energeticamente.
Como diferencial, o modelo tem motores de mensagens dedicados, que aliviam o processamento de comunicação do sistema e reduzem a latência.
MTIA 400

O MTIA 400 é voltado para cargas de trabalho gerais de IA generativa. Para isso, combina dois chiplets de computação — dobrando a densidade de processamento — e eleva o consumo para 1.200 W. O chip tem 288 GB de memória e 51% mais largura de banda HBM em relação ao modelo 300, atingindo 9,2 TB/s. O desempenho chega a 6 PFLOPs no formato FP8/MX8 e 12 PFLOPs em MX4.
O chip já concluiu a fase de testes e está a caminho da implantação oficial. Na infraestrutura, 72 aceleradores são conectados em um único rack, com resfriamento líquido auxiliado por ar, o que pode permitir a instalação mesmo em data centers mais antigos.
MTIA 450

O MTIA 450 tem foco na etapa de geração de conteúdo para os usuários, ou etapa de inferência, com a IA já treinada. Para acelerar esse processo, o chip mantém os 288 GB de memória HBM com o dobro da largura de banda do modelo anterior, chegando a 18,4 TB/s, operando a 1.400 W. O chip também aumenta o desempenho em 75% ao utilizar o MX4, outro formato de dados de precisão ainda mais baixa otimizado para inferência.
Em desempenho, atinge 7 PFLOPs em FP8/MX8 e robustos 21 PFLOPs em MX4. Traz também aceleração em hardware para operações de Softmax e FlashAttention, algoritmos que as redes neurais usam para calcular probabilidades e entender o contexto durante a geração de texto.
A implantação em massa está prevista para o início de 2027.
MTIA 500

O mais avançado da nova linha tem uma configuração quadrada de chiplets de computação menores, cercados por pilhas de memória e rede.
A principal novidade é um chiplet SoC — que agrupa diversas funções em uma única peça —, responsável por oferecer conexão direta de alta velocidade com o processador principal do servidor.
Com consumo de 1.700 W, o chip eleva a largura de banda HBM para 27,6 TB/s e oferece capacidade de memória expansível entre 384 GB e 512 GB. O desempenho máximo chega a 10 PFLOPs em FP8/MX8 e 30 PFLOPs em MX4. A implantação em massa também está prevista para 2027.