Loading ...

Meta revela quatro chips MTIA para impulsionar IA

Resumo
  • Meta anunciou quatro chips MTIA (300, 400, 450, 500) para IA, com lançamentos semestrais até 2027.
  • Os chips usam arquitetura de “chiplets” para atualizações rápidas e são otimizados para diferentes cargas de trabalho de IA.
  • A empresa desenvolveu um ecossistema de software nativo em PyTorch, eliminando a necessidade de reescrever códigos para os novos chips.

A Meta anunciou quatro novas gerações de chips proprietários para infraestrutura de inteligência artificial. Os novos modelos — batizados de MTIA 300, 400, 450 e 500 — devem sustentar a operação de LLMs avançados em escala global com custos menores. Segundo a Meta, alguns já estão em fase de testes nos data centers da empresa e outros têm implantação prevista até 2027.

Os quatro compartilham características como a arquitetura baseada em “chiplets”, pequenos blocos independentes de silício que formam o processador. Segundo a Meta, eles permitem atualizações de hardware mais rápidas do que o modelo convencional. Com isso, a empresa afirma ser capaz de lançar um novo processador a cada seis meses, mantendo o hardware alinhado às necessidades do software

A empresa também implementou um ecossistema de software construído nativamente para o padrão PyTorch. Ele dispensa a necessidade de reescrever códigos para que os modelos funcionem nos novos chips.

MTIA (de Meta Training and Inference Accelerator) é uma família desenvolvida pela empresa em parceria com a Broadcom. As duas gerações anteriores — MTIA 1 e MTIA 2i, hoje chamadas de MTIA 100 e MTIA 200 — já foram testadas com os modelos de linguagem da companhia, como o Llama.

MTIA 300

MTIA 300 (imagem: reprodução/Meta)

O mais básico da nova linha, o MTIA 300 foi projetado como uma base de baixo custo. Ele é otimizado para trabalhos de classificação e recomendação da Meta (como os algoritmos de feed dos usuários), e já está em produção, segundo a empresa, atuando no treinamento desses algoritmos.

A arquitetura dele combina um chiplet de computação com núcleos RISC-V, dois chiplets de rede e pilhas de memória rápida HBM, que otimizam o trânsito de grandes volumes de dados. O chip opera a 800 W de consumo, oferece 216 GB de memória e 6,1 TB/s de largura de banda, atingindo 1,2 PFLOPs em cálculos no formato FP8/MX8 e 0,6 PFLOPs em BF16 — formatos de baixa precisão que tornam a execução da IA mais rápida e eficiente energeticamente.

Como diferencial, o modelo tem motores de mensagens dedicados, que aliviam o processamento de comunicação do sistema e reduzem a latência.

MTIA 400

Diagrama de arquitetura do chip MTIA400, com o título "Architecture Diagram - Large 1D Mesh". O diagrama apresenta uma grade PE abstrata rotulada como uma malha grande de 6x48 PE Clusters. Contém componentes como HBM, LLC e conexões de rede de 4x800 Gbps RoCE.
MTIA 400 (imagem: reprodução/Meta)

O MTIA 400 é voltado para cargas de trabalho gerais de IA generativa. Para isso, combina dois chiplets de computação — dobrando a densidade de processamento — e eleva o consumo para 1.200 W. O chip tem 288 GB de memória e 51% mais largura de banda HBM em relação ao modelo 300, atingindo 9,2 TB/s. O desempenho chega a 6 PFLOPs no formato FP8/MX8 e 12 PFLOPs em MX4.

O chip já concluiu a fase de testes e está a caminho da implantação oficial. Na infraestrutura, 72 aceleradores são conectados em um único rack, com resfriamento líquido auxiliado por ar, o que pode permitir a instalação mesmo em data centers mais antigos.

MTIA 450

Diagrama de arquitetura do chip MTIA450, intitulado "Architecture Diagram - Large PE Grid". O diagrama exibe uma grade PE maior, com o detalhe de grades menores de 6x48 PE Clusters. Inclui componentes como HBM, LLC e conexões de rede de 6x800 Gbps RoCE.
MTIA 450 (imagem: reprodução/Meta)

O MTIA 450 tem foco na etapa de geração de conteúdo para os usuários, ou etapa de inferência, com a IA já treinada. Para acelerar esse processo, o chip mantém os 288 GB de memória HBM com o dobro da largura de banda do modelo anterior, chegando a 18,4 TB/s, operando a 1.400 W. O chip também aumenta o desempenho em 75% ao utilizar o MX4, outro formato de dados de precisão ainda mais baixa otimizado para inferência.

Em desempenho, atinge 7 PFLOPs em FP8/MX8 e robustos 21 PFLOPs em MX4. Traz também aceleração em hardware para operações de Softmax e FlashAttention, algoritmos que as redes neurais usam para calcular probabilidades e entender o contexto durante a geração de texto.

A implantação em massa está prevista para o início de 2027.

MTIA 500

Diagrama de arquitetura do chip MTIA500, com o título "Architecture Diagram - PE Clusters". O diagrama mostra a estrutura interna, incluindo HBM (High Bandwidth Memory), LLC (Local Last-Level Cache) e conexões de rede de 4x800 Gbps RoCE. A grade central detalha "PE Grid 1" e "PE Grid 2".
MTIA 500 (imagem: reprodução/Meta)

O mais avançado da nova linha tem uma configuração quadrada de chiplets de computação menores, cercados por pilhas de memória e rede.

A principal novidade é um chiplet SoC — que agrupa diversas funções em uma única peça —, responsável por oferecer conexão direta de alta velocidade com o processador principal do servidor.

Com consumo de 1.700 W, o chip eleva a largura de banda HBM para 27,6 TB/s e oferece capacidade de memória expansível entre 384 GB e 512 GB. O desempenho máximo chega a 10 PFLOPs em FP8/MX8 e 30 PFLOPs em MX4. A implantação em massa também está prevista para 2027.

Meta revela quatro chips MTIA para impulsionar IA

Rolar para cima