Rubin + Helios: Novas plataformas de GPU da NVIDIA e da AMD
Antigamente, uma nova GPU significava uma placa mais rápida e ventoinhas mais barulhentas. Em 2026, o verdadeiro drama das GPUs acontece em data centers: fileiras de racks, um plano sério de refrigeração e cabos de energia que parecem grossos o suficiente para pertencer a uma subestação. É aí que chegam a plataforma de GPU Rubin da NVIDIA e a plataforma de IA em escala de rack Helios da AMD — dois nomes que soam como projetos espaciais, mas que na verdade são projetos de sistemas para construir e executar IA em escala maciça.
Ambas as empresas estão impulsionando a mesma ideia: um único chip não é mais suficiente. Um sistema moderno de IA precisa de uma GPU, uma CPU parceira, links rápidos entre GPUs dentro do rack, rede rápida entre racks e software que mantém tudo ocupado por meses. A NVIDIA chama isso de “co-design” extremo no nível do rack. A AMD apresenta a Helios como uma arquitetura de rack aberta, alinhada ao OCP, construída com parceiros.
Por que “Plataformas de GPU” estão substituindo “uma GPU”
Os maiores modelos de IA de hoje esbarram em limites que não são simplesmente “mais núcleos”. Três restrições aparecem repetidamente:
1) A memória é rei. Treinar e servir modelos modernos exige enorme capacidade e largura de banda de memória. É por isso que a HBM (memória de alta largura de banda) continua ganhando importância.
2) A comunicação decide a velocidade. Muitas cargas de trabalho atuais, especialmente modelos mixture-of-experts (MoE), dependem de GPUs conversando umas com as outras de forma rápida e previsível. Modelos MoE “roteiam” tokens para diferentes experts. Esse roteamento cria muito tráfego GPU-para-GPU. Se a interconexão for fraca, GPUs caras ficam ociosas.
3) Custo por token e energia importam. A inferência está explodindo. A pergunta não é mais “Quão rápida é uma GPU?” e sim “Quantos tokens úteis eu obtenho por watt e por euro?” Uma plataforma que reduz o custo por token pode mudar preços de nuvem, escolhas de tamanho de modelo e até estratégia de produto.
Assim, tanto a NVIDIA quanto a AMD estão vendendo sistemas em que um rack age como um único computador gigante. A “plataforma” agora inclui os chips de computação mais a interconexão (scale-up dentro do rack e scale-out entre racks), além de recursos de segurança e confiabilidade que mantêm a máquina funcionando.
É por isso que Rubin e Helios parecem diferentes de lançamentos antigos. Elas se parecem menos com “novas placas de GPU” e mais com “novos blocos de construção de data center”.
Plataforma de GPU NVIDIA Rubin 2026: especificações, janela de lançamento e recursos principais
A NVIDIA posiciona a Rubin como sucessora da Blackwell, construída em torno de sistemas em escala de rack, como o Vera Rubin NVL72 (e sistemas HGX menores). A NVIDIA descreve a Rubin como uma plataforma de seis chips projetada em conjunto no nível do rack: a CPU Vera, a GPU Rubin, o switch NVLink 6, a ConnectX-9 SuperNIC, a BlueField-4 DPU e switches Ethernet Spectrum.
Essa lista de “seis chips” não é enfeite. A NVIDIA está dizendo: o rack é o produto. A GPU é a estrela, mas o elenco de apoio faz o trabalho duro de alimentá-la com dados, mover resultados e manter o sistema seguro.
Grande promessa da Rubin: menor custo por token, especialmente para MoE e “IA de raciocínio”
A NVIDIA diz que a Rubin tem como alvo IA agentiva, raciocínio avançado e inferência MoE em grande escala. Em sua mensagem de lançamento, a NVIDIA afirma que a Rubin pode oferecer até 10x menor custo de inferência por token do que a Blackwell e pode treinar determinados modelos MoE usando 4x menos GPUs do que a plataforma anterior.
São grandes afirmações, e os resultados reais dependerão do modelo e do software. Ainda assim, a direção é clara: a Rubin é projetada para tornar o rack inteiro mais eficiente, não apenas para vencer um único benchmark.
Transformer Engine e NVFP4: buscando eficiência sem perder precisão
Na página da plataforma Rubin, a NVIDIA destaca um novo Transformer Engine com compressão adaptativa acelerada por hardware para impulsionar o desempenho em NVFP4 preservando a precisão. A NVIDIA também afirma que a Rubin pode atingir até 50 petaFLOPS de inferência em NVFP4.
Por que focar em formatos como FP4? Porque a inferência costuma ser limitada pela economia. Se você puder reduzir o custo de computação e memória por token, poderá atender mais usuários, executar janelas de contexto maiores ou manter a baixa latência sem comprar outro rack.
Rede de scale-out: quando um rack não é suficiente
Um único rack pode ser poderoso, mas grandes clusters de IA precisam conectar muitos racks. Na apresentação da CES, a pilha da plataforma Rubin inclui Spectrum-X Ethernet Photonics para rede de scale-out, além de ConnectX-9 e BlueField-4.
Isso aponta para uma tendência-chave: potência de rede e latência agora fazem parte da história da plataforma de GPU. O movimento de dados entre racks pode custar tanto (em tempo e energia) quanto a própria computação.
Cronograma e sinais de adoção
Na CES 2026, a NVIDIA disse que a Rubin está em plena produção, com produtos de parceiros esperados para o segundo semestre de 2026.
A Reuters também informou que o acordo multianual da NVIDIA para fornecer à Meta inclui chips de IA Blackwell e futuros Rubin, além de CPUs Grace e Vera.
Quando os hyperscalers planejam em torno de uma plataforma, geralmente significa que a plataforma será real — e em breve.
Plataforma de IA em escala de rack AMD Helios: MI450/MI455X, UALink e cronograma
A Helios é a resposta da AMD para IA em escala de rack, mas a AMD a vende com um estilo diferente. A AMD apresenta a Helios como um design de rack aberto, alinhado ao OCP, construído sobre especificações enviadas pela Meta ao Open Compute Project. A AMD diz que a Helios está sendo lançada como um design de referência para parceiros OEM/ODM, com implantação em volume esperada em 2026.
Em outras palavras: a Helios foi pensada para ser copiada, adaptada e construída por muitos fabricantes de sistemas — não apenas como uma pilha rigidamente controlada.
Helios no mundo real: a implantação da Meta e escala de gigawatts
Em 24 de fevereiro de 2026, AMD e Meta anunciaram uma parceria definitiva para implantar até 6 gigawatts de GPUs AMD Instinct em várias gerações. A AMD disse que os embarques para a primeira implantação de 1 gigawatt devem começar no segundo semestre de 2026, com uma GPU Instinct personalizada baseada na arquitetura MI450 e CPUs EPYC de 6ª geração “Venice” executando ROCm, construída sobre a Helios.
“Implantação de GPUs em escala de gigawatts” indica que este mercado deixou para trás a fase de hobby.
Abertura e interconexão: UALink, além dos “primeiros passos”
Um sistema em escala de rack é tão bom quanto sua interconexão de scale-up. A Helios está ligada à ideia de interconexões abertas como a UALink, mas a cobertura sugere que os primeiros sistemas Helios podem usar UALink sobre Ethernet inicialmente, com UALink nativa escalando depois.
Para compradores, links abertos podem reduzir o aprisionamento a fornecedor (lock-in). Para a AMD, esta é uma grande tarefa de ecossistema: o hardware, a comutação e o software precisam amadurecer ao mesmo tempo.
O que sabemos sobre densidade de rack e metas de desempenho
Relatos independentes descrevem a Helios como um design de rack muito denso. A Tom’s Hardware informa que racks Helios podem acomodar 72 aceleradores Instinct MI455X com cerca de 31 TB de HBM4, visando cerca de 2,9 exaFLOPS em FP4 para inferência e 1,4 exaFLOPS em FP8 para treinamento (com a observação sobre UALink sobre Ethernet nas primeiras máquinas).
O The Next Platform também relatou configurações de racks Helios e números de largura de banda em grande escala.
Esses números variam conforme os sistemas finais, mas mostram que a AMD mira o mesmo nível de “fábrica de IA” dos sistemas de rack da NVIDIA.
A estratégia de parceiros: Índia, fornecedores de sistemas e uma jogada de ecossistema
A AMD está impulsionando a Helios por meio de parcerias. Em fevereiro de 2026, a AMD anunciou trabalho com a Tata Consultancy Services (TCS) em torno de um design de infraestrutura de IA em escala de rack baseado na Helios para implantações na Índia.
E a Helios está entrando no mundo de servidores comerciais: a Tom’s Hardware informou que a HPE planejava disponibilizar sistemas baseados em Helios no mundo todo em 2026.
Esse é um movimento clássico da AMD: vencer com parcerias, designs padronizados e muitos caminhos para o mercado.
Rubin vs Helios: a comparação curta e útil
Ambas as plataformas são construídas para a mesma realidade: a IA agora é limitada por memória, rede e eficiência total do sistema. Portanto, ambas colocam o rack em primeiro lugar.
As diferenças interessantes dizem respeito a como chegar lá:
- NVIDIA Rubin = integração extrema. A NVIDIA enfatiza o co-design entre seis chips e promove a NVLink 6 como uma interconexão-chave do rack.
- AMD Helios = arquitetura de rack aberta. A AMD enfatiza o alinhamento com o OCP, designs de referência e um ecossistema que pode construir racks ao estilo Helios de maneiras diferentes.
Para muitos compradores, os pontos decisivos serão menos poéticos:
- Atrito de software: maturidade de CUDA vs ROCm para seus modelos e bibliotecas específicos.
- Prontidão de rede: NVLink 6 é o caminho estabelecido da NVIDIA; os planos de interconexão aberta da AMD são promissores, mas dependem do timing do ecossistema.
- Entrega e suprimento: se você não consegue receber o rack completo a tempo, o melhor roadmap vira um PDF muito caro.
Isso importa se você não é um hiperescalador?
Sim, mesmo que você nunca vá possuir um rack com 72 GPUs (e prefira que o seu prédio continue no chão). Rubin e Helios vão moldar os serviços de nuvem que muitas equipes usam todos os dias.
Quando data centers se tornam mais eficientes, a IA na nuvem pode ficar mais barata ou mais capaz. Isso pode significar janelas de contexto maiores, respostas mais rápidas ou modelos mais especializados em produtos reais. Também pode significar mais competição entre provedores de nuvem, porque finalmente existem mais opções sérias de hardware em escala.
Há também um efeito cascata. Plataformas de data center frequentemente influenciam futuros servidores corporativos, recursos de workstations e, às vezes, até ideias de GPUs para consumidores, ao longo do tempo. Você não deve esperar uma “placa de jogos Rubin” na próxima semana, mas pode esperar que a corrida de plataformas impulsione coisas como melhor tecnologia de memória, melhor pensamento de interconexão e pilhas de software de IA mais maduras.
Então, mesmo que Rubin e Helios vivam na nuvem, os efeitos aparecerão na sua tela.
Conclusão
Rubin e Helios mostram que as GPUs estão evoluindo para plataformas completas: computação + memória + interconexão + segurança + software. A competição não é mais “de quem é o chip mais rápido”, e sim “de quem é o rack que fica ocupado, permanece seguro e se mantém acessível”.
A NVIDIA Rubin aposta em integração profunda, largura de banda de scale-up via NVLink e uma pilha de seis chips cuidadosamente projetada. A AMD Helios aposta em abertura, designs OCP e implantações de parceiros muito grandes, medidas em gigawatts.
Os nomes ainda soam como um final de temporada de ficção científica. Essa parte pode ser marketing. A mudança de plataforma não é.