Rubin + Helios: Uudet GPU-alustat NVIDIA:lta ja AMD:ltä Rubin + Helios: Uudet GPU-alustat NVIDIA:lta ja AMD:ltä

Ennen vanhaan uusi GPU tarkoitti nopeampaa korttia ja äänekkäämpiä tuulettimia. Vuonna 2026 varsinainen GPU-draama tapahtuu datakeskuksissa: riveittäin telineitä, vakavasti otettava jäähdytyssuunnitelma ja virtakaapelit, jotka näyttävät niin paksuilta, että ne kuuluisivat sähköasemalle. Sinne saapuvat NVIDIAn Rubin GPU -alusta ja AMD:n Helios-telinetason AI-alusta — kaksi nimeä, jotka kuulostavat avaruusprojekteilta, mutta ovat oikeasti järjestelmäsuunnitelmia massiivisen mittakaavan AI:n rakentamiseen ja ajamiseen.

Molemmat yhtiöt ajavat samaa ajatusta: yksi siru ei enää riitä. Moderni AI-järjestelmä tarvitsee GPU:n, CPU-kumppanin, nopeat linkit GPU:iden välillä telineen sisällä, nopeat verkot telineiden välillä sekä ohjelmiston, joka pitää kaiken kiireisenä kuukausien ajan. NVIDIA kutsuu tätä äärimmilleen vietyä “yhteissuunnittelua” telinetasolla. AMD kuvaa Heliosin avoimena, OCP:hen linjattuna telinearkkitehtuurina, joka rakennetaan kumppaneiden kanssa.

Miksi “GPU-alustat” korvaavat “yhden GPU:n”

Nykyiset suurimmat AI-mallit törmäävät rajoihin, joita ei ratkaista pelkällä “lisää ytimiä”. Kolme rajoitetta toistuu kerta toisensa jälkeen:

1) Muisti on kuningas. Nykyisten mallien opettaminen ja palveleminen tarvitsevat valtavan muistimäärän ja kaistanleveyden. Siksi HBM (high-bandwidth memory) kasvaa jatkuvasti merkitykseltään.

2) Viestintä ratkaisee nopeuden. Monet nykyiset työkuormat, erityisesti mixture-of-experts (MoE) -mallit, riippuvat siitä, että GPU:t keskustelevat keskenään nopeasti ja ennustettavasti. MoE-mallit “reitittävät” tokeneita eri eksperteille. Tuo reititys synnyttää paljon GPU:iden välistä liikennettä. Jos liityntä on heikko, kalliit GPU:t odottavat toimettomina.

3) Kustannus per token ja teho merkitsevät. Inferenssi räjähtää kasvuun. Kysymys ei enää ole “kuinka nopea yksi GPU on?” vaan “kuinka monta hyödyllistä tokenia saan wattia ja euroa kohden?” Alusta, joka laskee kustannusta per token, voi muuttaa pilven hinnoittelua, mallikokojen valintoja ja jopa tuotestrategiaa.

Siksi sekä NVIDIA että AMD myyvät järjestelmiä, joissa teline toimii kuin yksi jättimäinen tietokone. “Alustaan” kuuluvat nyt laskentasirut sekä kudos (scale-up telineen sisällä ja scale-out telineiden välillä), lisäksi turvallisuus- ja luotettavuusominaisuudet, jotka pitävät koneen käynnissä.

Tämä on syy siihen, miksi Rubin ja Helios tuntuvat erilaisilta kuin vanhemmat lanseeraukset. Ne ovat vähemmän “uusia GPU-kortteja” ja enemmän “uusia datakeskuksen rakennuspalikoita.”

NVIDIA Rubin GPU -alusta 2026: tekniset tiedot, julkaisuikkuna ja keskeiset ominaisuudet

NVIDIA asemoi Rubinin Blackwellin seuraajaksi, joka rakentuu telinetason järjestelmien, kuten Vera Rubin NVL72:n (ja pienempien HGX-järjestelmien), ympärille. NVIDIA kuvaa Rubinia kuuden sirun alustaksi, joka on suunniteltu yhdessä telinetasolla: Vera-CPU, Rubin-GPU, NVLink 6 -kytkin, ConnectX-9 SuperNIC, BlueField-4 DPU ja Spectrum Ethernet -kytkimet.

Tuo “kuuden sirun” lista ei ole koriste. NVIDIA sanoo: teline on tuote. GPU on tähti, mutta tukijoukot tekevät kovan työn sen syöttämiseksi datalla, tulosten siirtämiseksi ja järjestelmän pitämiseksi turvassa.

Rubinin suuri lupaus: alempi kustannus per token, erityisesti MoE:lle ja “päättely-AI:lle”

NVIDIA sanoo, että Rubin kohdistuu agenttimaisiin AI-järjestelmiin, kehittyneeseen päättelyyn ja laajamittaisen MoE-inferenssin tarpeisiin. Julkaisussa NVIDIA väittää, että Rubin voi tarjota jopa 10x alemmat inferenssikustannukset per token kuin Blackwell ja voi kouluttaa tietyt MoE-mallit jopa 4x vähemmillä GPU:illa kuin aiempi alusta.

Nämä ovat isoja väitteitä, ja todelliset tulokset riippuvat mallista ja ohjelmistosta. Suunta on silti selvä: Rubin on suunniteltu tekemään koko telineestä tehokkaampi, ei vain voittamaan yhtä vertailutestiä.

Transformer Engine ja NVFP4: tehokkuutta ilman tarkkuuden menetystä

Rubin-alustan sivulla NVIDIA korostaa uutta Transformer Enginea, jossa on laitteistokiihdytetty adaptiivinen pakkaus NVFP4-suorituskyvyn parantamiseksi samalla kun tarkkuus säilyy. NVIDIA kertoo myös, että Rubin yltää jopa 50 petaFLOPSin NVFP4-inferenssiin.

Miksi keskittyä FP4:n kaltaisiin muotoihin? Koska inferenssiä rajoittaa usein talous. Jos voit pienentää laskennan ja muistin kustannusta per token, voit palvella useampia käyttäjiä, ajaa suurempia konteksti-ikkunoita tai pitää latenssin matalana ilman, että ostat toisen telineen.

Scale-out-verkotus: kun yksi teline ei riitä

Yksi teline voi olla voimakas, mutta suuret AI-klusterit tarvitsevat monien telineiden yhdistämistä. NVIDIAn CES-esityksessä Rubin-alustan pinoon sisältyy scale-out -verkotukseen Spectrum-X Ethernet Photonics sekä ConnectX-9 ja BlueField-4.

Tämä osoittaa keskeisen trendin: verkon suorituskyky ja latenssi ovat nyt osa GPU-alustatarinaa. Datan siirtäminen telineiden välillä voi maksaa yhtä paljon (ajassa ja tehossa) kuin varsinainen laskenta.

Aikataulu ja käyttöönoton merkit

CES 2026:ssa NVIDIA sanoi, että Rubin on täydessä tuotannossa, ja kumppanituotteita odotetaan vuoden 2026 toisella puoliskolla.
Reuters raportoi myös, että NVIDIAn monivuotinen sopimus Metan kanssa sisältää Blackwellin ja tulevat Rubin-AI-sirut sekä Grace- ja Vera-CPU:t.
Kun hyperskaalarit suunnittelevat toimintansa alustan varaan, se yleensä tarkoittaa, että alusta on oikea — ja pian.

AMD Helios -telinetason AI-alusta: MI450/MI455X, UALink ja aikataulu

Helios on AMD:n vastaus telinetason AI:hin, mutta AMD myy sitä eri tyylillä. AMD kuvaa Heliosin avoimena, OCP:hen linjattuna telinearkkitehtuurina, joka perustuu Metan Open Compute Projectiin toimittamiin määrityksiin. AMD kertoo julkaisevansa Heliosin viitesuunnitteluna OEM/ODM-kumppaneille, ja laajamittaisen käyttöönoton odotetaan tapahtuvan vuonna 2026.

Toisin sanoen: Helios on tarkoitettu kopioitavaksi, mukautettavaksi ja rakennettavaksi monien järjestelmätoimittajien toimesta — ei vain yhtenä tiukasti hallittuna pinona.

Helios käytännössä: Metan käyttöönotto ja gigawatti-skaala

24. helmikuuta 2026 AMD ja Meta ilmoittivat lopullisesta kumppanuudesta, jonka myötä useiden sukupolvien ajan otetaan käyttöön jopa 6 gigawattia AMD Instinct -GPU:ita. AMD sanoi, että ensimmäisen gigawatin käyttöönoton toimitusten odotetaan alkavan vuoden 2026 toisella puoliskolla, ja niitä vauhdittaa räätälöity Instinct-GPU MI450-arkkitehtuurin pohjalta sekä 6. sukupolven EPYC “Venice” -CPU:t, jotka ajavat ROCm:ia, Heliosin varaan rakennettuna.

“Gigawatti-tason GPU-käyttöönotto” kertoo, että tämä markkina on jättänyt harrastevaiheen taakseen.

Avoimuus ja liityntä: UALink sekä “ensivaiheet”

Telinetason järjestelmä on vain niin hyvä kuin sen scale-up -kudos. Helios kytkeytyy avoimien liityntöjen, kuten UALinkin, ideaan, mutta uutisoinnin perusteella varhaiset Helios-järjestelmät saattavat käyttää ensin UALinkia Ethernetin yli, ja alkuperäinen UALink yleistyy myöhemmin.

Ostajille avoimet linkit voivat vähentää toimittajalukkoa. AMD:lle tämä on suuri ekosysteemitehtävä: laitteiston, kytkennän ja ohjelmiston on kypsyttävä samaan aikaan.

Mitä tiedämme telinetiheydestä ja suorituskykytavoitteista

Riippumattomat raportit kuvaavat Heliosin erittäin tiheäksi telinesuunnitelmaksi. Tom’s Hardware raportoi, että Helios-telineisiin mahtuu 72 Instinct MI455X -kiihdytintä noin 31 TB:lla HBM4-muistia, tavoitteena noin 2.9 FP4 eksaFLOPSia inferenssille ja 1.4 FP8 eksaFLOPSia koulutukselle (huomautuksella UALinkista Ethernetin yli varhaisissa koneissa).

The Next Platform on myös raportoinut Helios-telinekokoonpanoista ja laajamittaisista kaistanleveysluvuista.

Nämä luvut vaihtelevat lopullisten toimitettavien järjestelmien mukaan, mutta ne osoittavat, että AMD tähtää samalle “AI-tehdas” -tasolle kuin NVIDIAn telineratkaisut.

Kumppanistrategia: Intia, järjestelmätoimittajat ja ekosysteemipeli

AMD vie Heliosia eteenpäin kumppanuuksien kautta. Helmikuussa 2026 AMD ilmoitti tekevänsä yhteistyötä Tata Consultancy Servicesin (TCS) kanssa Helios-pohjaisen telinetasoisen AI-infrastruktuurin suunnittelussa käyttöönottoihin Intiassa.

Ja Helios tulee kaupallisten palvelimien maailmaan: Tom’s Hardware raportoi, että HPE aikoi tuoda Helios-pohjaiset järjestelmät saataville maailmanlaajuisesti vuonna 2026.

Se on klassinen AMD-liike: voita kumppanuuksilla, standardisuunnitelmilla ja monilla reiteillä markkinoille.

Rubin vs. Helios: lyhyt, hyödyllinen vertailu

Molemmat alustat on rakennettu samaa todellisuutta varten: AI:ta rajoittavat nyt muisti, verkotus ja koko järjestelmän tehokkuus. Siksi molemmat asettavat telineen etusijalle.

Kiinnostavat erot liittyvät siihen, miten sinne päästään:

  • NVIDIA Rubin = äärimmäinen integraatio. NVIDIA painottaa kuuden sirun kattavaa yhteissuunnittelua ja nostaa NVLink 6:n keskeiseksi telinetason kytkentäkudokseksi.
  • AMD Helios = avoin telinearkkitehtuuri. AMD painottaa OCP-linjausta, viitesuunnitelmia ja ekosysteemiä, joka voi rakentaa Helios-tyylisiä telineitä eri tavoin.

Monille ostajille ratkaisevat tekijät ovat vähemmän runollisia:

  • Ohjelmistokitka: CUDA vs. ROCm -kypsyys omille malleillesi ja kirjastoillesi.
  • Verkon valmius: NVLink 6 on NVIDIAn vakiintunut polku; AMD:n avoimet liityntäsuunnitelmat ovat lupaavia, mutta riippuvat ekosysteemin aikataulusta.
  • Toimitus ja saatavuus: jos et saa koko telinettä ajoissa, paras tiekartta muuttuu erittäin kalliiksi PDF:ksi.

Onko tällä väliä, jos et ole hyperskaaleri?

Kyllä, vaikka et koskaan omistaisi telinettä, jossa on 72 GPU:ta (ja haluat rakennuksesi pysyvän maan pinnalla). Rubin ja Helios muokkaavat pilvipalveluja, joita monet tiimit käyttävät päivittäin.

Kun datakeskuksista tulee tehokkaampia, pilvi-AI voi halventua tai kypsyä. Se voi tarkoittaa suurempia konteksti-ikkunoita, nopeampia vastauksia tai erikoistuneempia malleja todellisissa tuotteissa. Se voi myös lisätä kilpailua pilvitarjoajien välillä, koska skaalassa on vihdoin useampia vakavia laitevaihtoehtoja.

On myös “valumaefekti”. Datakeskusalustat vaikuttavat usein ajan myötä yrityspalvelimiin, työasemien ominaisuuksiin ja joskus jopa kuluttaja-GPU-ideoihin. Et ehkä näe “Rubin-pelikorttia” ensi viikolla, mutta voit odottaa, että alustakilpailu vauhdittaa esimerkiksi parempaa muistiteknologiaa, parempaa liityntäajattelua ja kypsyneempiä AI-ohjelmistopinoja.

Joten vaikka Rubin ja Helios elävät pilvessä, vaikutukset näkyvät näytölläsi.

Yhteenveto

Rubin ja Helios osoittavat, että GPU:t kehittyvät täysiksi alustoiksi: laskenta + muisti + kudos + turvallisuus + ohjelmisto. Kilpailu ei enää ole “kumman siru on nopeampi”, vaan “kumman teline pysyy kuormitettuna, pysyy turvallisena ja pysyy edullisena.”

NVIDIA Rubin panostaa syvään integraatioon, NVLinkin scale-up -kaistanleveyteen ja tiukasti suunniteltuun kuuden sirun pinoon. AMD Helios panostaa avoimuuteen, OCP-suunnitelmiin ja erittäin suuriin, gigawateissa mitattaviin kumppanikäyttöönottoihin.

Nimet kuulostavat yhä scifi-kauden finaalilta. Se osa voi olla markkinointia. Alustamuutos ei ole.

Kirjoittajan muut julkaisut

Miksi TikTok on hullaantunut söpöihin Raspberry Pi -cyberdeckeihin?
Artikkeli
Miksi TikTok on hullaantunut söpöihin Raspberry Pi -cyberdeckeihin?
TikTok muuttaa Raspberry Pi ‑levyt söpöiksi cyberdeckeiksi, kannettaviksi minitietokoneiksi ja design‑esineiksi. Tässä miksi tämä ilmiö on tärkeä ja miten rakennat oman.
Miksi Eurooppa kiristää ChatGPT:n ja Claude Mythosin valvontaa
Artikkeli
Miksi Eurooppa kiristää ChatGPT:n ja Claude Mythosin valvontaa
EU arvioi, pitäisikö ChatGPT:n olla tiukempien DSA-sääntöjen alainen, kun taas Ison-Britannian sääntelyviranomaiset arvioivat Anthropicin uusimman tekoälymallin kyberriskit.
Anthropicin Claude Mythos: onko malli liian riskialtis yleiseen julkaisuun?
Artikkeli
Anthropicin Claude Mythos: onko malli liian riskialtis yleiseen julkaisuun?
Claude Mythos Preview on Anthropicin tähän mennessä kiistellyin tekoälyjulkaisu. Lue, miksi sitä on rajoitettu, mitä se osaa ja miksi viranomaiset ja pankit kiinnittävät siihen huomiota.
Mitä 81,000 ihmistä kertoi Anthropicille haluavansa tekoälyltä
Artikkeli
Mitä 81,000 ihmistä kertoi Anthropicille haluavansa tekoälyltä
Anthropic analysoi 80 508 tekoälyn käyttäjähaastattelua 159 maassa selvittääkseen, mitä ihmiset toivovat tekoälyltä, mikä heitä huolestuttaa ja missä nykyiset työkalut yhä eivät riitä.