Rubin + Helios: Nieuwe GPU-platformen van NVIDIA en AMD Rubin + Helios: Nieuwe GPU-platformen van NVIDIA en AMD

Vroeger betekende een nieuwe GPU een snellere kaart en luidere ventilatoren. In 2026 speelt het echte GPU-drama zich af in datacenters: rijen racks, een serieus koelplan en stroomkabels die zo dik lijken dat ze thuishoren in een onderstation. Daar komen NVIDIA’s Rubin GPU-platform en AMD’s Helios AI-platform op rackschaal binnen — twee namen die klinken als ruimteprojecten, maar in werkelijkheid systeemontwerpen zijn om AI op enorme schaal te bouwen en te draaien.

Beide bedrijven sturen op hetzelfde idee: één chip is niet meer genoeg. Een modern AI-systeem heeft een GPU nodig, een CPU-partner, snelle verbindingen tussen GPU’s binnen het rack, snelle netwerkverbindingen tussen racks en software die alles maandenlang bezighoudt. NVIDIA noemt dit extreme “co-design” op rackniveau. AMD schetst Helios als een open, met OCP uitgelijnde rackarchitectuur die met partners is gebouwd.

Waarom “GPU-platforms” “één GPU” vervangen

De grootste AI-modellen van vandaag stuiten op grenzen die niet simpelweg “meer cores” zijn. Drie beperkingen keren steeds terug:

1) Geheugen is koning. Het trainen en uitserveren van moderne modellen vergt enorme geheugencapaciteit en -bandbreedte. Daarom wordt HBM (high-bandwidth memory) steeds belangrijker.

2) Communicatie bepaalt de snelheid. Veel huidige workloads, vooral mixture-of-experts (MoE)-modellen, zijn afhankelijk van GPU’s die snel en voorspelbaar met elkaar praten. MoE-modellen “routen” tokens naar verschillende experts. Dat routeren veroorzaakt veel GPU-naar-GPU-verkeer. Als de interconnect zwak is, staan dure GPU’s stil te wachten.

3) Kosten per token en energieverbruik tellen. Inferentie explodeert. De vraag is niet langer “Hoe snel is één GPU?” maar “Hoeveel bruikbare tokens krijg ik per watt en per euro?” Een platform dat de kosten per token verlaagt, kan cloudprijzen, modelkeuzes en zelfs productstrategie veranderen.

Dus verkopen NVIDIA en AMD systemen waarbij een rack als één grote computer fungeert. Het “platform” omvat nu de rekenchips plus de fabric (scale-up binnen het rack en scale-out tussen racks), plus beveiligings- en betrouwbaarheidsfuncties die de machine draaiende houden.

Dit is waarom Rubin en Helios anders aanvoelen dan oudere lanceringen. Ze lijken minder op “nieuwe GPU-kaarten” en meer op “nieuwe datacenter-bouwstenen.”

NVIDIA Rubin GPU-platform 2026: specificaties, releasevenster en kernfuncties

NVIDIA positioneert Rubin als de opvolger van Blackwell, gebouwd rond rackschaalsystemen zoals de Vera Rubin NVL72 (en kleinere HGX-systemen). NVIDIA beschrijft Rubin als een platform met zes chips dat gezamenlijk op rackniveau is ontworpen: de Vera-CPU, de Rubin-GPU, de NVLink 6-switch, de ConnectX-9 SuperNIC, de BlueField-4 DPU en Spectrum Ethernet-switches.

Die “zes-chip”-lijst is geen versiering. NVIDIA zegt: het rack is het product. De GPU is de ster, maar de rest van de cast doet het zware werk: data aanleveren, resultaten verplaatsen en het systeem veilig houden.

Rubins grote belofte: lagere kosten per token, vooral voor MoE en “redenerende AI”

NVIDIA zegt dat Rubin zich richt op agentische AI, geavanceerde redenering en grootschalige MoE-inferentie. In de lanceringsboodschap claimt NVIDIA dat Rubin tot 10x lagere inferentiekosten per token kan leveren dan Blackwell, en bepaalde MoE-modellen kan trainen met 4x minder GPU’s dan het vorige platform.

Dat zijn grote claims, en de resultaten in de praktijk hangen af van het model en de software. Toch is de richting duidelijk: Rubin is ontworpen om het volledige rack efficiënter te maken, niet alleen om één benchmark te winnen.

Transformer Engine en NVFP4: efficiëntie najagen zonder nauwkeurigheid te verliezen

Op de Rubin-platformpagina benadrukt NVIDIA een nieuwe Transformer Engine met hardwareversnelde adaptieve compressie om de NVFP4-prestaties te verhogen met behoud van nauwkeurigheid. NVIDIA stelt ook dat Rubin tot 50 petaFLOPS aan NVFP4-inferentie kan bereiken.

Waarom de focus op formaten zoals FP4? Omdat inferentie vaak door de economie wordt begrensd. Als je de reken- en geheugenkosten per token kunt verlagen, kun je meer gebruikers bedienen, grotere contextvensters draaien of de latentie laag houden zonder een extra rack te kopen.

Scale-out-netwerken: wanneer één rack niet genoeg is

Één rack kan krachtig zijn, maar grote AI-clusters moeten veel racks met elkaar verbinden. In NVIDIA’s CES-presentatie omvat de Rubin-platformstapel Spectrum-X Ethernet Photonics voor scale-out-netwerken, plus ConnectX-9 en BlueField-4.

Dit wijst op een belangrijke trend: netwerkcapaciteit en latentie maken nu deel uit van het GPU-platformverhaal. De databeweging tussen racks kan net zo veel kosten (in tijd en energie) als de berekening zelf.

Tijdlijn en signalen van adoptie

Op CES 2026 zei NVIDIA dat Rubin volledig in productie is, met partnerproducten die in de tweede helft van 2026 worden verwacht.
Reuters meldde ook dat NVIDIA’s meerjarige deal om Meta te beleveren Blackwell en toekomstige Rubin AI-chips omvat, plus Grace- en Vera-CPU’s.
Als hyperscalers rond een platform plannen, betekent dat meestal dat het platform echt wordt — en snel.

AMD Helios AI-platform op rackschaal: MI450/MI455X, UALink en tijdlijn

Helios is AMD’s antwoord op AI op rackschaal, maar AMD verkoopt het met een andere insteek. AMD presenteert Helios als een open, OCP-conform rackontwerp, gebaseerd op specificaties die door Meta bij het Open Compute Project zijn ingediend. AMD zegt dat Helios als referentieontwerp aan OEM/ODM-partners wordt vrijgegeven, met volumedeployments verwacht in 2026.

Met andere woorden: Helios is bedoeld om door veel systeemmakers te worden gekopieerd, aangepast en gebouwd — niet alleen als één strak gecontroleerde stack.

Helios in de praktijk: de Meta-implementatie en gigawattschaal

Op 24 februari 2026 kondigden AMD en Meta een definitieve samenwerking aan om tot 6 gigawatt aan AMD Instinct-GPU’s over meerdere generaties uit te rollen. AMD zei dat de leveringen voor de eerste gigawatt-implementatie in de tweede helft van 2026 naar verwachting beginnen, aangedreven door een aangepaste Instinct-GPU op basis van de MI450-architectuur en 6e generatie EPYC “Venice”-CPU’s met ROCm, gebouwd op Helios.

“GPU-implementatie op gigawattschaal” is een signaal dat deze markt de hobbyfase achter zich heeft gelaten.

Openheid en interconnect: UALink, plus de “vroege stappen”

Een systeem op rackschaal is slechts zo goed als zijn scale-up-fabric. Helios is gekoppeld aan het idee van open interconnects zoals UALink, maar berichtgeving suggereert dat vroege Helios-systemen eerst UALink over Ethernet kunnen gebruiken, met native UALink die later opschaalt.

Voor kopers kunnen open links vendor lock-in verminderen. Voor AMD is dit een grote ecosysteemopgave: de hardware, switching en software moeten tegelijk volwassen worden.

Wat we weten over rackdichtheid en prestatiedoelen

Onafhankelijke berichtgeving beschrijft Helios als een zeer dicht rackontwerp. Tom’s Hardware meldt dat Helios-racks 72 Instinct MI455X-accelerators kunnen bevatten met ongeveer 31 TB aan HBM4, gericht op circa 2,9 FP4 exaFLOPS voor inferentie en 1,4 FP8 exaFLOPS voor training (met de kanttekening over UALink over Ethernet in vroege machines).

The Next Platform heeft ook gerapporteerd over Helios-rackconfiguraties en grootschalige bandbreedtecijfers.

Deze cijfers zullen variëren per uiteindelijke levering, maar ze laten zien dat AMD mikt op hetzelfde “AI factory”-niveau als NVIDIA’s racksystemen.

De partnerstrategie: India, systeembouwers en een ecosysteemzet

AMD stuwt Helios via partnerschappen. In februari 2026 kondigde AMD samenwerking met Tata Consultancy Services (TCS) aan rond een Helios-gebaseerd AI-infrastructuurontwerp op rackschaal voor implementaties in India.

En Helios betreedt de commerciële serverwereld: Tom’s Hardware meldde dat HPE van plan was Helios-gebaseerde systemen in 2026 wereldwijd beschikbaar te maken.

Dat is een klassieke AMD-zet: winnen met partnerschappen, standaardontwerpen en veel routes naar de markt.

Rubin vs Helios: de korte, nuttige vergelijking

Beide platforms zijn gebouwd voor dezelfde realiteit: AI wordt nu begrensd door geheugen, netwerken en totale systeemefficiëntie. Dus zetten beide het rack op de eerste plaats.

De interessante verschillen gaan over hoe je daar komt:

  • NVIDIA Rubin = extreme integratie. NVIDIA benadrukt co-design over zes chips en zet NVLink 6 neer als een cruciale rack-fabric.
  • AMD Helios = open rackarchitectuur. AMD benadrukt OCP-afstemming, referentieontwerpen en een ecosysteem dat op verschillende manieren Helios-achtige racks kan bouwen.

Voor veel kopers zullen de beslissingspunten minder poëtisch zijn:

  • Softwarewrijving: de volwassenheid van CUDA vs ROCm voor je specifieke modellen en bibliotheken.
  • Netwerkgereedheid: NVLink 6 is NVIDIA’s gevestigde pad; AMD’s plannen voor open interconnects zijn veelbelovend maar hangen af van de timing van het ecosysteem.
  • Levering en beschikbaarheid: als je het volledige rack niet op tijd kunt krijgen, wordt de beste roadmap een erg dure pdf.

Maakt dit uit als je geen hyperscaler bent?

Ja, ook als je nooit een rack met 72 GPU’s zult bezitten (en je liever hebt dat je gebouw op de grond blijft staan). Rubin en Helios zullen de clouddiensten vormen die veel teams elke dag gebruiken.

Als datacenters efficiënter worden, kan cloud-AI goedkoper of capabeler worden. Dat kan betekenen: grotere contextvensters, snellere reacties of meer gespecialiseerde modellen in echte producten. Het kan ook meer concurrentie tussen cloudproviders betekenen, omdat er eindelijk meer serieuze hardwareopties op schaal zijn.

Er is ook een “trickle-down”-effect. Datacenterplatforms beïnvloeden vaak toekomstige enterprise-servers, workstationfuncties en soms zelfs consumenten-GPU-ideeën in de loop van de tijd. Je moet niet verwachten dat er volgende week een “Rubin-gamingkaart” komt, maar je mag wel verwachten dat de platformrace zaken als betere geheugentechnologie, beter interconnect-denken en volwassenere AI-softwarestacks vooruitduwt.

Dus, zelfs als Rubin en Helios in de cloud leven, verschijnen de effecten op je scherm.

Belangrijkste conclusie

Rubin en Helios laten zien dat GPU’s evolueren naar volledige platforms: compute + geheugen + fabric + beveiliging + software. De competitie gaat niet langer over “wiens chip sneller is,” maar over “wiens rack bezig blijft, veilig blijft en betaalbaar blijft.”

NVIDIA Rubin gokt op diepe integratie, NVLink-scale-up-bandbreedte en een strak ontworpen zes-chipstack. AMD Helios gokt op openheid, OCP-ontwerpen en zeer grote partneruitrol gemeten in gigawatts.

De namen klinken nog steeds als de seizoensfinale van een sci-fi-serie. Dat deel is misschien marketing. De platformverschuiving is dat niet.

Andere berichten van de auteur

Waarom is TikTok zo geobsedeerd door schattige Raspberry Pi-cyberdecks?
Artikel
Waarom is TikTok zo geobsedeerd door schattige Raspberry Pi-cyberdecks?
TikTok verandert Raspberry Pi‑borden in schattige cyberdecks, draagbare minicomputers en designobjecten. Dit is waarom de trend ertoe doet en hoe je er zelf een bouwt.
Waarom Europa het toezicht op ChatGPT en Claude Mythos aanscherpt
Artikel
Waarom Europa het toezicht op ChatGPT en Claude Mythos aanscherpt
De EU onderzoekt of ChatGPT aan strengere DSA-regels moet worden onderworpen, terwijl Britse toezichthouders de cyberrisico’s van Anthropics nieuwste AI-model beoordelen.
Anthropic’s Claude Mythos: is het model te risicovol voor een algemene release?
Artikel
Anthropic’s Claude Mythos: is het model te risicovol voor een algemene release?
Claude Mythos Preview is Anthropics meest controversiële AI-release tot nu toe. Lees waarom het is beperkt, wat het kan en waarom toezichthouders en banken er aandacht aan besteden.
Wat 81,000 mensen Anthropic vertelden dat ze van AI willen
Artikel
Wat 81,000 mensen Anthropic vertelden dat ze van AI willen
Anthropic analyseerde 80.508 interviews met AI-gebruikers in 159 landen om te leren wat mensen van AI willen, waar ze zich zorgen over maken en waar de huidige tools nog tekortschieten.