Rubin + Helios: Nye GPU-platforme fra NVIDIA og AMD Rubin + Helios: Nye GPU-platforme fra NVIDIA og AMD

I gamle dage betød en ny GPU et hurtigere kort og mere larmende blæsere. I 2026 foregår det egentlige GPU-drama i datacentre: rækker af racks, en seriøs køleløsning og strømkabler, der ser tykke nok ud til at høre hjemme i en transformerstation. Det er her, NVIDIAs Rubin GPU-platform og AMDs Helios rack-skala AI-platform dukker op — to navne, der lyder som rumprojekter, men i virkeligheden er systemdesigns til at bygge og køre AI i massiv skala.

Begge virksomheder skubber på for den samme idé: én chip er ikke længere nok. Et moderne AI-system har brug for en GPU, en CPU-makker, hurtige forbindelser mellem GPU'er inde i racket, hurtigt netværk mellem racks og software, der holder alt beskæftiget i månedsvis. NVIDIA kalder dette ekstrem “co-design” på rack-niveau. AMD beskriver Helios som en åben, OCP-tilpasset rack-arkitektur bygget med partnere.

Hvorfor “GPU-platforme” erstatter “en GPU”

Dagens største AI-modeller rammer begrænsninger, der ikke bare handler om “flere kerner.” Tre begrænsninger går igen og igen:

1) Hukommelse er konge. Træning og servicering (inferens) af moderne modeller kræver enorm hukommelseskapacitet og -båndbredde. Derfor bliver HBM (high-bandwidth memory) stadig vigtigere.

2) Kommunikation afgør farten. Mange nuværende arbejdsbelastninger, især Mixture-of-Experts (MoE)-modeller, er afhængige af, at GPU'er taler med hinanden hurtigt og forudsigeligt. MoE-modeller “router” tokens til forskellige eksperter. Den routing skaber en masse GPU-til-GPU-trafik. Hvis interconnectet er svagt, står dyre GPU'er og venter.

3) Omkostning pr. token og strømforbrug betyder noget. Inferens eksploderer. Spørgsmålet er ikke længere “Hvor hurtig er én GPU?” Det er “Hvor mange nyttige tokens får jeg pr. watt og pr. euro?” En platform, der sænker omkostningen pr. token, kan ændre cloud-priser, modelstørrelsesvalg og endda produktstrategi.

Derfor sælger både NVIDIA og AMD systemer, hvor et rack opfører sig som én stor computer. “Platformen” omfatter nu beregningschips plus fabric (scale-up inde i racket og scale-out mellem racks) samt sikkerheds- og pålidelighedsfunktioner, der holder maskinen kørende.

Det er derfor Rubin og Helios føles anderledes end ældre lanceringer. De er mindre som “nye GPU-kort” og mere som “nye datacenter-byggesten.”

NVIDIA Rubin GPU-platform 2026: Specifikationer, lanceringsvindue og nøglefunktioner

NVIDIA positionerer Rubin som efterfølgeren til Blackwell, bygget omkring rack-skala-systemer som Vera Rubin NVL72 (og mindre HGX-systemer). NVIDIA beskriver Rubin som en seks-chip-platform, designet samlet på rack-niveau: Vera-CPU'en, Rubin-GPU'en, NVLink 6-switchen, ConnectX-9 SuperNIC, BlueField-4 DPU og Spectrum Ethernet-switche.

Den “seks-chip”-liste er ikke pynt. NVIDIA siger: racket er produktet. GPU'en er stjernen, men resten af holdet laver det hårde arbejde med at fodre den med data, flytte resultater rundt og holde systemet sikkert.

Rubins store løfte: Lavere omkostning pr. token, især for MoE og “ræsonnerende AI”

NVIDIA siger, at Rubin er målrettet agentbaseret AI, avanceret ræsonnering og storskala MoE-inferens. I sin lancering hævder NVIDIA, at Rubin kan levere op til 10x lavere inferensomkostning pr. token end Blackwell og kan træne visse MoE-modeller med 4x færre GPU'er end den forrige platform.

Det er store påstande, og resultater i den virkelige verden afhænger af model og software. Retningen er dog klar: Rubin er designet til at gøre hele racket mere effektivt — ikke kun til at vinde en enkelt benchmark.

Transformer Engine og NVFP4: Jagten på effektivitet uden at miste nøjagtighed

På sin Rubin-platformside fremhæver NVIDIA en ny Transformer Engine med hardwareaccelereret adaptiv komprimering for at øge NVFP4-ydelsen uden at gå på kompromis med nøjagtigheden. NVIDIA oplyser også, at Rubin kan nå op til 50 petaFLOPS NVFP4-inferens.

Hvorfor fokusere på formater som FP4? Fordi inferens ofte er begrænset af økonomi. Hvis du kan reducere beregnings- og hukommelsesomkostningen pr. token, kan du betjene flere brugere, køre større kontekstvinduer eller holde latenstiden lav uden at købe endnu et rack.

Scale-out-netværk: Når ét rack ikke er nok

Et enkelt rack kan være kraftfuldt, men store AI-klynger skal forbinde mange racks. I NVIDIAs CES-præsentation inkluderer Rubin-platformens stak Spectrum-X Ethernet Photonics til scale-out-netværk samt ConnectX-9 og BlueField-4.

Det peger på en nøgletendens: netværkets ydeevne og latenstid er nu en del af GPU-platformens fortælling. Databevægelsen mellem racks kan koste lige så meget (i tid og strøm) som selve beregningen.

Tidslinje og indikationer på udbredelse

På CES 2026 sagde NVIDIA, at Rubin er i fuld produktion, med partnerprodukter forventet i anden halvdel af 2026.
Reuters rapporterede også, at NVIDIAs flerårige aftale om at levere til Meta omfatter Blackwell og fremtidige Rubin AI-chips samt Grace- og Vera-CPU'er.
Når hyperskalere planlægger omkring en platform, betyder det som regel, at platformen bliver virkelig — og snart.

AMD Helios rack-skala AI-platform: MI450/MI455X, UALink og tidslinje

Helios er AMDs svar på rack-skala AI, men AMD sælger det på en anden måde. AMD beskriver Helios som et åbent, OCP-tilpasset rack-design bygget på specifikationer indsendt af Meta til Open Compute Project. AMD siger, at Helios frigives som et referencedesign til OEM/ODM-partnere, med volumenimplementering forventet i 2026.

Med andre ord: Helios er tænkt til at blive kopieret, tilpasset og bygget af mange systemproducenter — ikke kun som én stramt kontrolleret stak.

Helios i den virkelige verden: Meta-implementeringen og gigawatt-skala

Den 24. februar 2026 annoncerede AMD og Meta et endeligt partnerskab om at implementere op til 6 gigawatt AMD Instinct-GPU'er på tværs af flere generationer. AMD sagde, at forsendelser til den første gigawatt-implementering forventes at begynde i anden halvdel af 2026, drevet af en specialtilpasset Instinct-GPU baseret på MI450-arkitekturen og 6. gen. EPYC “Venice”-CPU'er med ROCm, bygget på Helios.

“Gigawatt-skala GPU-implementering” signalerer, at dette marked har lagt hobbyfasen bag sig.

Åbenhed og interconnect: UALink samt de “tidlige skridt”

Et rack-skala-system er kun så godt som dets scale-up-fabric. Helios er knyttet til idéen om åbne interconnects som UALink, men dækningen tyder på, at tidlige Helios-systemer først kan bruge UALink over Ethernet, med native UALink der ruller ud senere.

For købere kan åbne forbindelser reducere leverandørlåsning. For AMD er dette en stor økosystemopgave: hardware, switching og software skal modnes samtidig.

Hvad vi ved om rack-tæthed og ydelsesmål

Uafhængig rapportering beskriver Helios som et meget tæt rack-design. Tom’s Hardware rapporterer, at Helios-racks kan pakke 72 Instinct MI455X-acceleratorer med omkring 31 TB HBM4, med mål om ca. 2,9 FP4 exaFLOPS til inferens og 1,4 FP8 exaFLOPS til træning (med bemærkningen om UALink over Ethernet i tidlige maskiner).

The Next Platform har også rapporteret om Helios rack-konfigurationer og storskala-båndbredde-tal.

Disse tal vil variere afhængigt af de endelige leverede systemer, men de viser, at AMD sigter mod samme “AI-fabrik”-niveau som NVIDIAs rack-systemer.

Partnerstrategien: Indien, systemleverandører og et økosystemfokus

AMD skubber Helios frem gennem partnerskaber. I februar 2026 annoncerede AMD et samarbejde med Tata Consultancy Services (TCS) om et Helios-baseret rack-skala AI-infrastrukturdesign til implementeringer i Indien.

Og Helios træder ind i den kommercielle serververden: Tom’s Hardware rapporterede, at HPE planlagde at gøre Helios-baserede systemer tilgængelige globalt i 2026.

Det er et klassisk AMD-træk: vind med partnerskaber, standarddesigns og mange veje til markedet.

Rubin vs. Helios: den korte, nyttige sammenligning

Begge platforme er bygget til den samme virkelighed: AI er nu begrænset af hukommelse, netværk og samlet systemeffektivitet. Derfor sætter begge racket først.

De interessante forskelle handler om, hvordan man når dertil:

  • NVIDIA Rubin = ekstrem integration. NVIDIA fremhæver co-design på tværs af seks chips og skubber på NVLink 6 som et centralt rack-fabric.
  • AMD Helios = åben rack-arkitektur. AMD fremhæver OCP-tilpasning, referencedesigns og et økosystem, der kan bygge Helios-lignende racks på forskellige måder.

For mange købere vil de afgørende punkter være mindre poetiske:

  • Softwarefriktion: CUDA vs. ROCm-modenhed for dine specifikke modeller og biblioteker.
  • Netværksparathed: NVLink 6 er NVIDIAs etablerede vej; AMDs åbne interconnect-planer er lovende, men afhænger af økosystemets timing.
  • Levering og forsyning: hvis du ikke kan få hele racket til tiden, bliver selv den bedste køreplan til en meget dyr PDF.

Betyder det noget, hvis du ikke er en hyperskaler?

Ja, selv hvis du aldrig kommer til at eje et rack med 72 GPU'er (og du foretrækker, at din bygning bliver på jorden). Rubin og Helios vil forme de cloud-tjenester, som mange teams bruger hver dag.

Når datacentre bliver mere effektive, kan AI i skyen blive billigere eller mere kapabel. Det kan betyde større kontekstvinduer, hurtigere svar eller mere specialiserede modeller i rigtige produkter. Det kan også betyde mere konkurrence mellem cloud-udbydere, fordi der endelig er flere seriøse hardwaremuligheder i skala.

Der er også en “trickle-down”-effekt. Datacenterplatforme påvirker ofte fremtidige virksomhedsservere, workstation-funktioner og nogle gange endda idéer til forbruger-GPU'er over tid. Du skal ikke forvente et “Rubin-gamingkort” i næste uge, men du kan forvente, at platformkapløbet skubber på ting som bedre hukommelsesteknologi, bedre tænkning om interconnects og mere modne AI-softwarestakke.

Så selv om Rubin og Helios lever i skyen, vil effekterne dukke op på din skærm.

Kort fortalt

Rubin og Helios viser, at GPU'er er ved at udvikle sig til fulde platforme: beregning + hukommelse + fabric + sikkerhed + software. Konkurrencen handler ikke længere om “hvis chip er hurtigst,” men om “hvis rack holder sig beskæftiget, sikkert og betaleligt.”

NVIDIA Rubin satser på dyb integration, NVLink scale-up-båndbredde og en stramt designet seks-chip-stak. AMD Helios satser på åbenhed, OCP-designs og meget store partnerimplementeringer målt i gigawatt.

Navnene lyder stadig som en sci-fi-sæsonfinale. Den del kan være marketing. Platformskiftet er det ikke.

Forfatterens andre indlæg

Claude Code vs. Codex: Hvorfor AI-kodeagenter er overalt
Artikel
Claude Code vs. Codex: Hvorfor AI-kodeagenter er overalt
Claude Code vs. Codex: sammenlign funktioner, arbejdsgange, sikkerhed og anvendelsestilfælde, og se, hvorfor AI-kodeassistenter pludselig er overalt.
Pålidelig AI ved, hvornår den skal sige: “Det giver ingen mening”
Artikel
Pålidelig AI ved, hvornår den skal sige: “Det giver ingen mening”
BullshitBench viser, hvorfor pålidelig AI skal opdage fejlbehæftede præmisser og ikke blot generere flydende svar. Et kig på AI-pålidelighed, indsigelser og detektering af falske præmisser.
Browseren bliver agenten: hvorfor søgningen begynder at agere
Artikel
Browseren bliver agenten: hvorfor søgningen begynder at agere
AI-søgning lærer at handle inde i browseren, ikke kun at svare. Her er, hvordan browseragenter ændrer SEO, trafik, privatliv og fremtiden for det åbne web.
Anthropic vinder første runde i Pentagons AI-opgør
Artikel
Anthropic vinder første runde i Pentagons AI-opgør
Anthropic vinder en tidlig sejr i retten i sin AI-strid med Pentagon, hvilket rejser større spørgsmål om værn for militær AI, kontrakter og kontrol.