Rubin + Helios:NVIDIA と AMD からの新しい GPU プラットフォーム
昔は、新しいGPUといえば、より高速なカードとよりうるさいファンのことだった。2026年に本当のGPUドラマが起きるのはデータセンターだ。ラックの列、厳密な冷却計画、変電所にあってもおかしくないほど太い電源ケーブル。そこに登場するのがNVIDIAのRubin GPUプラットフォームとAMDのHeliosラックスケールAIプラットフォーム——名前だけ聞けば宇宙計画のようだが、実際は大規模にAIを構築・運用するためのシステム設計である。
両社が推し進める発想は同じだ。もはや1枚のチップでは足りない。現代のAIシステムにはGPU、相棒となるCPU、ラック内でGPU同士を結ぶ高速リンク、ラック間をつなぐ高速ネットワーク、そして数カ月にわたり全体を遊ばせないソフトウェアが必要になる。NVIDIAはこれをラックレベルでの極端な「コーデザイン」と呼び、AMDはHeliosをパートナーとともに作るオープンでOCP整合のラックアーキテクチャと位置づけている。
なぜ「GPUプラットフォーム」が「1枚のGPU」に取って代わるのか
今日の巨大なAIモデルは、単に「コアを増やせばよい」という限界を超えている。繰り返し現れる制約は次の3つだ。
1) メモリこそが王者。最新モデルの学習と提供には膨大なメモリ容量と帯域が要る。だからこそHBM(高帯域幅メモリ)の重要性が増し続けている。
2) 通信が速度を決める。とくにMixture-of-Experts(MoE)などの現行ワークロードは、GPU同士が素早く予測可能に通信できるかに依存する。MoEモデルはトークンを各エキスパートに「ルーティング」するが、その過程でGPU間のトラフィックが大量に発生する。インターコネクトが弱ければ、高価なGPUが待ち時間で遊んでしまう。
3) トークン当たりコストと電力が重要。推論が爆発的に増えている。問いはもはや「1枚のGPUはどれだけ速いか」ではなく、「1ワット、1ユーロ当たりどれだけ有用なトークンを得られるか」だ。トークン単価を下げられるプラットフォームは、クラウドの料金、モデルサイズの選択、さらには製品戦略まで左右し得る。
だからNVIDIAもAMDも、ラックを1台の巨大コンピュータとして扱うシステムを売っている。「プラットフォーム」には、計算チップだけでなく、ファブリック(ラック内のスケールアップとラック間のスケールアウト)、そして稼働を支えるセキュリティと信頼性の機能まで含まれる。
これがRubinとHeliosが従来の発表と違って感じられる理由だ。彼らは「新しいGPUカード」というより「新しいデータセンター用の構成要素」なのだ。
NVIDIA Rubin GPUプラットフォーム 2026:仕様、発売時期、主要機能
NVIDIAはRubinをBlackwellの後継として位置づけ、Vera Rubin NVL72(およびより小型のHGXシステム)といったラックスケールのシステムを中核に据える。NVIDIAはRubinを、ラックレベルで共同設計された6つのチップから成るプラットフォームと説明している:Vera CPU、Rubin GPU、NVLink 6スイッチ、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum Ethernetスイッチだ。
この「6チップ」の並びは飾りではない。NVIDIAは「ラックこそが製品だ」と言っている。GPUは主役だが、データを供給し、結果を運び、システムを安全に保つ脇役たちが重労働を担う。
Rubinの大きな約束:トークン当たりコストの低減、特にMoEや「推論AI」で
NVIDIAはRubinがエージェント型AI、高度な推論、大規模MoE推論を狙うとする。発表メッセージでは、RubinはBlackwell比で推論のトークン当たりコストを最大10分の1にし、特定のMoEモデルの学習を従来プラットフォーム比でGPU台数を4分の1にできると主張している。
数字の大きさは目を引くが、実測はモデルやソフトに依存する。それでも方向性は明確だ。Rubinは単一のベンチマークで勝つためだけでなく、ラック全体をより効率よく動かすよう設計されている。
Transformer EngineとNVFP4:精度を損なわずに効率を追求
NVIDIAのRubinプラットフォーム紹介では、新しいTransformer Engineと、精度を維持しつつNVFP4の性能を高めるハードウェア加速の適応圧縮が強調されている。NVIDIAはRubinがNVFP4推論で最大50ペタFLOPSに到達し得るとも述べる。
なぜFP4のようなフォーマットに注目するのか。推論はしばしば経済性に制約されるためだ。トークン当たりの計算・メモリコストを下げられれば、より多くのユーザーに提供でき、コンテキストウィンドウを拡大でき、あるいはラックを増設せずに低レイテンシを保てる。
スケールアウトネットワーキング:1ラックでは足りないとき
1本のラックでも強力だが、大規模AIクラスターは多くのラックを接続する必要がある。NVIDIAのCESプレゼンでは、Rubinのプラットフォームスタックにスケールアウト向けのSpectrum-X Ethernet Photonics、さらにConnectX-9やBlueField-4が含まれていた。
これは重要な潮流を示す。ラック間のデータ移動の帯域とレイテンシは、もはやGPUプラットフォームの物語の一部だ。場合によっては、ラック間通信の時間や電力コストが計算そのものに匹敵する。
タイムラインと採用のシグナル
CES 2026で、NVIDIAはRubinが量産中であり、パートナー製品は2026年後半に登場見込みだと述べた。
Reutersはまた、NVIDIAがMetaに供給する複数年契約にはBlackwellと将来のRubin AIチップ、さらにGraceとVera CPUが含まれると報じた。
ハイパースケーラーがあるプラットフォームを前提に計画を立てる場合、そのプラットフォームは現実のものになる——しかも早い、というのが通例だ。
AMD Helios ラックスケールAIプラットフォーム:MI450/MI455X、UALink、タイムライン
HeliosはAMDによるラックスケールAIへの回答だが、AMDはこれを異なる流儀で提供している。AMDはHeliosを、MetaがOpen Compute Project(OCP)に提出した仕様に基づく、オープンでOCP整合のラック設計として位置づける。AMDはHeliosをOEM/ODMパートナー向けのリファレンスデザインとして提供し、2026年に量産展開が見込まれるとしている。
言い換えれば、Heliosは厳密に管理された単一のスタックにとどめず、多くのシステムメーカーが複製・適用・構築できるよう意図されている。
現実世界のHelios:Metaでの展開とギガワット規模
2026年2月24日、AMDとMetaは、複数世代にわたり最大6ギガワット相当のAMD Instinct GPUを展開する最終合意のパートナーシップを発表した。AMDは、最初の1ギガワット分の展開に向けた出荷を2026年後半に開始予定とし、MI450アーキテクチャをベースにしたカスタムInstinct GPUと、第6世代EPYC「Venice」CPU、ROCmを採用し、Helios上で動作させると述べた。
「ギガワット規模のGPU展開」と聞けば、この市場が趣味の段階をとうに過ぎたことが分かる。
オープン性とインターコネクト:UALink、そして「初期段階」
ラックスケールシステムの良し悪しは、スケールアップ用ファブリックで決まる。HeliosはUALinkのようなオープンなインターコネクトの理念に結びついているが、報道によれば初期のHeliosではまずEthernet上のUALinkを用い、ネイティブUALinkは後で本格化する可能性がある。
購入者にとって、オープンなリンクはベンダーロックインの軽減につながる。AMDにとっては、ハード、スイッチング、ソフトが同時に成熟する必要がある大規模なエコシステム課題だ。
ラック密度と性能目標について分かっていること
独立系の報道では、Heliosは非常に高密度なラック設計とされる。Tom’s Hardwareによると、HeliosラックはHBM4を約31 TB搭載したInstinct MI455Xアクセラレータを72基まで収容でき、推論で約2.9 FP4エクサFLOPS、学習で約1.4 FP8エクサFLOPSを狙う(初期マシンではEthernet上のUALinkという注記付き)。
The Next PlatformもHeliosのラック構成や大規模帯域の数値を報じている。
最終的な出荷システムで数値は変動するだろうが、AMDがNVIDIAのラックシステムと同じ「AIファクトリー」レベルを狙っていることは読み取れる。
パートナーストラテジー:インド、システムベンダー、エコシステム重視
AMDはパートナーシップを通じてHeliosを推進する。2026年2月、AMDはインドでの展開に向け、HeliosベースのラックスケールAIインフラ設計でタタ・コンサルタンシー・サービシズ(TCS)と協業すると発表した。
またHeliosはエンタープライズサーバーの世界にも入ってくる。Tom’s Hardwareは、HPEが2026年にHeliosベースのシステムを世界展開する計画だと報じた。
これは典型的なAMDのやり方だ。パートナーシップ、標準設計、多様な販路で勝つ。
Rubin対Helios:短く役立つ比較
両プラットフォームは同じ現実に基づいて作られている。AIは今やメモリ、ネットワーク、そしてシステム全体の効率に制約される。だから両者とも「まずラックありき」だ。
興味深い違いは到達までの道筋だ。
- NVIDIA Rubin=極端な統合。NVIDIAは6つのチップにわたるコーデザインを強調し、NVLink 6をラック内ファブリックの要とする。
- AMD Helios=オープンなラックアーキテクチャ。AMDはOCP整合、リファレンスデザイン、そしてさまざまな形でHelios風ラックを構築できるエコシステムを強調する。
多くの購入者にとって、決め手はもっと実務的だ。
- ソフトウェアの摩擦:あなたのモデル/ライブラリに対するCUDAとROCmの成熟度。
- ネットワークの準備状況:NVLink 6はNVIDIAの確立した道。AMDのオープンインターコネクト構想は有望だが、エコシステムのタイミングに左右される。
- 納期と供給:フルラックを期日に入手できなければ、最高のロードマップも高価なPDFに過ぎない。
ハイパースケーラーでなくても関係ある?
ある。たとえ72基のGPUを積んだラックを所有するつもりがなく(そして自分のビルを地上に留めておきたい)としても、RubinとHeliosは多くのチームが日々使うクラウドサービスの姿を形作る。
データセンターが効率化すれば、クラウドAIは安くなるか、より高機能になる。現実の製品で、より大きなコンテキストウィンドウ、より速い応答、より特化したモデルが実現するかもしれない。また、スケールで使える本格的なハードウェアの選択肢が増えることで、クラウド事業者間の競争も活発化し得る。
「波及効果」もある。データセンタープラットフォームは、将来のエンタープライズサーバーやワークステーションの機能、時にはコンシューマー向けGPUの発想にまで影響を与えることが多い。来週「Rubinのゲーミングカード」が出るとは期待しない方がいいが、プラットフォーム競争は、より優れたメモリ技術、インターコネクトの設計思想、成熟したAIソフトウェアスタックといった領域を確実に押し上げる。
つまり、RubinとHeliosがクラウドに住んでいても、その影響はあなたの画面に現れる。
まとめ
RubinとHeliosは、GPUがプラットフォームへと進化していることを示している:コンピュート+メモリ+ファブリック+セキュリティ+ソフトウェア。競争は「どのチップが速いか」ではなく、「どのラックが高い稼働率・高い安全性・手頃なコストを維持できるか」に移った。
NVIDIA Rubinは深い統合、NVLinkによるスケールアップ帯域、そして緊密に設計された6チップのスタックに賭ける。AMD Heliosはオープン性、OCP設計、そしてギガワット規模で測られる非常に大きなパートナー展開に賭ける。
名前は今でもSFのシーズン最終回のように聞こえる。そこはマーケティングかもしれない。だが、プラットフォームへの移行は本物だ。