روبین + هلیوس: پلتفرم‌های جدید GPU از انویدیا و AMD روبین + هلیوس: پلتفرم‌های جدید GPU از انویدیا و AMD

در روزگار قدیم، یک GPU جدید یعنی کارتی سریع‌تر و فن‌هایی پرصداتر. در سال 2026، درام واقعی GPU در مراکز داده رخ می‌دهد: ردیف‌هایی از رک‌ها، یک طرح خنک‌سازی جدی، و کابل‌های برقی که آن‌قدر ضخیم‌اند که انگار متعلق به یک پست برق هستند. همان‌جاست که پلتفرم GPU “Rubin” انویدیا و پلتفرم هوش مصنوعی در مقیاس رک “Helios” از AMD از راه می‌رسند — دو نام که شبیه پروژه‌های فضایی به گوش می‌رسند، اما در واقع طراحی‌های سیستمی برای ساخت و اجرای هوش مصنوعی در مقیاسی عظیم‌اند.

هر دو شرکت یک ایدهٔ مشترک را پیش می‌برند: یک تراشه دیگر کافی نیست. یک سامانهٔ مدرن هوش مصنوعی به یک GPU، یک شریک CPU، پیوندهای پرسرعت میان GPUها در داخل رک، شبکه‌سازی سریع بین رک‌ها، و نرم‌افزاری نیاز دارد که همه‌چیز را برای ماه‌ها مشغول نگه دارد. انویدیا این “هم‌طراحی” افراطی را در سطح رک می‌نامد. AMD، Helios را به‌عنوان یک معماری رکِ باز و همسو با OCP که با مشارکت شرکا ساخته شده، چارچوب‌بندی می‌کند.

چرا “پلتفرم‌های GPU” جای “یک GPU” را می‌گیرند

بزرگ‌ترین مدل‌های هوش مصنوعی امروز به محدودیت‌هایی می‌خورند که فقط “هسته‌های بیشتر” نیست. سه قید بارها و بارها خود را نشان می‌دهند:

1) حافظه پادشاه است. آموزش و ارائهٔ مدل‌های مدرن به ظرفیت و پهنای‌باند حافظهٔ عظیم نیاز دارند. به همین دلیل HBM (حافظه با پهنای‌باند بالا) هر روز مهم‌تر می‌شود.

2) ارتباطات سرعت را تعیین می‌کند. بسیاری از بارهای کاری کنونی، به‌ویژه مدل‌های mixture-of-experts (MoE)، به این وابسته‌اند که GPUها سریع و قابل پیش‌بینی با هم گفتگو کنند. مدل‌های MoE توکن‌ها را به “اکسپرت”های مختلف “مسیریابی” می‌کنند. این مسیریابی ترافیک فراوان GPU-to-GPU ایجاد می‌کند. اگر بین‌اتصال ضعیف باشد، GPUهای گران‌بها بیکار می‌مانند.

3) هزینهٔ هر توکن و توان مهم‌اند. موج استنتاج در حال انفجار است. پرسش دیگر این نیست که “یک GPU چقدر سریع است؟” بلکه این است که “به‌ازای هر وات و هر یورو چند توکن مفید می‌گیرم؟” پلتفرمی که هزینهٔ هر توکن را پایین بیاورد می‌تواند قیمت‌گذاری ابری، انتخاب اندازهٔ مدل و حتی راهبرد محصول را تغییر دهد.

پس هر دو شرکت NVIDIA و AMD سامانه‌هایی می‌فروشند که در آن‌ها یک رک مانند یک رایانهٔ غول‌پیکر عمل می‌کند. “پلتفرم” اکنون شامل تراشه‌های محاسباتی به‌علاوهٔ فابریک (گسترش مقیاس درون رک و گسترش بین رک‌ها)، به‌همراه ویژگی‌های امنیت و قابلیت اتکایی است که ماشین را سرپا نگه می‌دارند.

به همین دلیل Rubin و Helios با عرضه‌های قدیمی متفاوت به نظر می‌رسند. آن‌ها کمتر شبیه “کارت‌های GPU جدید” و بیشتر شبیه “آجرهای سازندهٔ جدید مرکز داده” هستند.

پلتفرم GPU انویدیا Rubin 2026: مشخصات، بازهٔ عرضه، و ویژگی‌های کلیدی

انویدیا Rubin را به‌عنوان جانشین Blackwell معرفی می‌کند که پیرامون سامانه‌های در مقیاس رک مانند Vera Rubin NVL72 (و سامانه‌های HGX کوچک‌تر) ساخته شده است. انویدیا Rubin را یک پلتفرم شش‌تراشه‌ای توصیف می‌کند که در سطح رک با هم طراحی شده‌اند: CPUهای Vera، GPUهای Rubin، سوییچ NVLink 6، کارت ConnectX-9 SuperNIC، واحد DPU مدل BlueField-4، و سوییچ‌های اترنت Spectrum.

آن فهرست “شش‌تراشه” تزئینی نیست. انویدیا می‌گوید: خودِ رک محصول است. GPU ستاره است، اما بازیگران پشتیبان کار سخت تغذیهٔ داده، جابه‌جایی نتایج، و ایمن نگه‌داشتن سامانه را انجام می‌دهند.

وعدهٔ بزرگ Rubin: کاهش هزینهٔ هر توکن، به‌ویژه برای MoE و “هوش مصنوعی استدلال‌گر”

انویدیا می‌گوید Rubin برای هوش مصنوعی عاملی (Agentic AI)، استدلال پیشرفته، و استنتاج MoE در مقیاس بزرگ هدف‌گذاری شده است. در پیام‌های معرفی، انویدیا مدعی است Rubin می‌تواند تا 10 برابر هزینهٔ استنتاج به‌ازای هر توکن را نسبت به Blackwell کاهش دهد و برخی مدل‌های MoE را با 4 برابر GPU کمتر از پلتفرم پیشین آموزش دهد.

این‌ها ادعاهای بزرگی‌اند و نتایج دنیای واقعی به مدل و نرم‌افزار وابسته‌اند. بااین‌حال جهت‌گیری روشن است: Rubin طوری طراحی شده که کل رک را کارآمدتر کند، نه فقط یک بنچمارکِ واحد را ببرد.

Transformer Engine و NVFP4: تعقیب بهره‌وری بدون از دست دادن دقت

در صفحهٔ پلتفرم Rubin، انویدیا یک Transformer Engine جدید با فشرده‌سازی تطبیقیِ شتاب‌گرفته با سخت‌افزار را برجسته می‌کند تا کارایی NVFP4 را در حالی افزایش دهد که دقت حفظ می‌شود. انویدیا همچنین می‌گوید Rubin می‌تواند تا 50 پتاFLOPS استنتاج در NVFP4 برسد.

چرا تمرکز بر قالب‌هایی مانند FP4؟ چون استنتاج غالباً با اقتصاد محدود می‌شود. اگر بتوانید هزینهٔ محاسبه و حافظه به‌ازای هر توکن را کاهش دهید، می‌توانید کاربران بیشتری را سرویس دهید، پنجره‌های زمینهٔ بزرگ‌تری اجرا کنید، یا بدون خرید یک رک دیگر، نهفتگی را پایین نگه دارید.

شبکه‌سازی مقیاس‌گستر: وقتی یک رک کافی نیست

یک رک می‌تواند قدرتمند باشد، اما خوشه‌های بزرگ هوش مصنوعی نیاز دارند رک‌های بسیاری را به‌هم متصل کنند. در ارائهٔ انویدیا در CES، پشتهٔ پلتفرم Rubin شامل Spectrum-X Ethernet Photonics برای شبکه‌سازی مقیاس‌گستر، به‌علاوهٔ ConnectX-9 و BlueField-4 است.

این به یک روند کلیدی اشاره دارد: توان و نهفتگی شبکه اکنون بخشی از داستان پلتفرم GPU است. جابه‌جایی داده بین رک‌ها می‌تواند به‌اندازهٔ خودِ محاسبه (از نظر زمان و توان) هزینه داشته باشد.

جدول زمانی و نشانه‌های پذیرش

در CES 2026، انویدیا گفت Rubin به تولید کامل رسیده است و انتظار می‌رود محصولات شرکایش در نیمهٔ دوم 2026 عرضه شوند.
رویترز همچنین گزارش داد که قرارداد چندسالهٔ انویدیا برای تأمین Meta شامل تراشه‌های هوش مصنوعی Blackwell و Rubinِ آینده، به‌علاوهٔ CPUهای Grace و Vera است.
وقتی هایپرسکیلرها پیرامون یک پلتفرم برنامه‌ریزی می‌کنند، معمولاً یعنی آن پلتفرم واقعی خواهد شد — و به‌زودی.

پلتفرم هوش مصنوعی AMD Helios در مقیاس رک: MI450/MI455X، UALink، و جدول زمانی

Helios پاسخ AMD به هوش مصنوعی در مقیاس رک است، اما AMD آن را با سبکی متفاوت عرضه می‌کند. AMD، Helios را به‌عنوان یک طراحی رکِ باز و همسو با OCP چارچوب‌بندی می‌کند که بر اساس مشخصاتی ساخته شده که Meta به پروژهٔ Open Compute ارائه کرده است. AMD می‌گوید Helios به‌عنوان طراحی مرجع برای شرکای OEM/ODM منتشر می‌شود و انتظار می‌رود در 2026 به‌صورت گسترده استقرار یابد.

به بیان دیگر: Helios قرار است توسط سازندگان گوناگون کپی، بومی‌سازی و ساخته شود — نه فقط به‌صورت یک پشتهٔ به‌شدت کنترل‌شده.

Helios در دنیای واقعی: استقرار در Meta و مقیاس گیگاوات

در 24 فوریهٔ 2026، AMD و Meta یک مشارکت قطعی را برای استقرار تا 6 گیگاوات GPUهای AMD Instinct در چندین نسل اعلام کردند. AMD گفت محموله‌های نخستین استقرار یک گیگاواتی قرار است در نیمهٔ دوم 2026 آغاز شود؛ با یک GPU سفارشی Instinct بر پایهٔ معماری MI450 و CPUهای EPYC نسل ششم “Venice” با ROCm، ساخته‌شده بر Helios.

“استقرار GPU در مقیاس گیگاوات” به شما علامت می‌دهد که این بازار از فاز سرگرمی گذشته است.

گشودگی و بین‌اتصال: UALink، و “گام‌های اولیه”

یک سامانهٔ در مقیاس رک به‌اندازهٔ فابریکِ مقیاس‌دهیِ خود خوب است. Helios به ایدهٔ بین‌اتصال‌های باز مانند UALink گره خورده است، اما گزارش‌ها نشان می‌دهند که سامانه‌های اولیهٔ Helios شاید ابتدا UALink over Ethernet را به‌کار گیرند و UALink بومی بعدتر اوج بگیرد.

برای خریداران، پیوندهای باز می‌تواند قفل‌شدگی به فروشنده را کاهش دهد. برای AMD، این یک کار اکوسیستمی بزرگ است: سخت‌افزار، سوییچینگ و نرم‌افزار باید هم‌زمان بالغ شوند.

آنچه دربارهٔ چگالی رک و اهداف کارایی می‌دانیم

گزارش‌های مستقل، Helios را یک طراحی رکِ بسیار متراکم توصیف می‌کنند. Tom’s Hardware گزارش می‌دهد که رک‌های Helios می‌توانند 72 شتاب‌دهندهٔ Instinct MI455X را با حدود 31 ترابایت HBM4 جا دهند و حدود 2.9 اگزافلاپس FP4 برای استنتاج و 1.4 اگزافلاپس FP8 برای آموزش را هدف بگیرند (با اشاره به UALink over Ethernet در ماشین‌های اولیه).

The Next Platform همچنین پیکربندی‌های رک Helios و ارقام پهنای‌باند در مقیاس بزرگ را گزارش کرده است.

این اعداد با سامانه‌های نهاییِ در حال ارسال متفاوت خواهند بود، اما نشان می‌دهند AMD همان سطح “کارخانهٔ هوش مصنوعی” هدف‌گذاری‌شده در سامانه‌های رک انویدیا را نشانه گرفته است.

راهبرد شراکت: هند، فروشندگان سامانه، و یک بازی اکوسیستمی

AMD در حال پیشبرد Helios از طریق مشارکت‌هاست. در فوریهٔ 2026، AMD اعلام کرد با Tata Consultancy Services (TCS) پیرامون طراحی زیرساخت هوش مصنوعی در مقیاس رک مبتنی بر Helios برای استقرارها در هند کار می‌کند.

و Helios وارد دنیای سرورهای تجاری می‌شود: Tom’s Hardware گزارش داد که HPE برنامه‌ریزی کرده سامانه‌های مبتنی بر Helios را در سال 2026 در سراسر جهان در دسترس قرار دهد.

این یک حرکت کلاسیک AMD است: پیروزی با مشارکت‌ها، طراحی‌های استاندارد، و مسیرهای متعدد به بازار.

Rubin در برابر Helios: مقایسه‌ای کوتاه و مفید

هر دو پلتفرم برای یک واقعیت واحد ساخته شده‌اند: هوش مصنوعی اکنون با حافظه، شبکه‌سازی، و کارایی کل سامانه محدود می‌شود. پس هر دو رک را در اولویت می‌گذارند.

تفاوت‌های جالب دربارهٔ چگونگی رسیدن به آنجاست:

  • NVIDIA Rubin = یکپارچگی افراطی. انویدیا بر هم‌طراحی میان شش تراشه تأکید می‌کند و NVLink 6 را به‌عنوان فابریک کلیدی رک پیش می‌برد.
  • AMD Helios = معماری رکِ باز. AMD بر همسویی با OCP، طراحی‌های مرجع، و اکوسیستمی تأکید می‌کند که می‌تواند رک‌هایی شبیه Helios را به روش‌های گوناگون بسازد.

برای بسیاری از خریداران، نقاط تصمیم‌گیری کمتر شاعرانه خواهند بود:

  • اصطکاک نرم‌افزاری: بلوغ CUDA در برابر ROCm برای مدل‌ها و کتابخانه‌های خاص شما.
  • آمادگی شبکه: NVLink 6 مسیر تثبیت‌شدهٔ انویدیاست؛ برنامه‌های AMD برای بین‌اتصالِ باز امیدوارکننده‌اند اما به زمان‌بندی اکوسیستم بستگی دارند.
  • تحویل و تأمین: اگر نتوانید کل رک را به‌موقع دریافت کنید، بهترین نقشهٔ راه به یک PDF بسیار گران تبدیل می‌شود.

آیا اگر هایپرسکیلر نیستید هم مهم است؟

بله، حتی اگر هرگز صاحب رکّی با 72 GPU نشوید (و ترجیح می‌دهید ساختمان‌تان روی زمین بماند). Rubin و Helios خدمات ابری‌ای را شکل خواهند داد که بسیاری تیم‌ها هر روز از آن استفاده می‌کنند.

وقتی مراکز داده کاراتر می‌شوند، هوش مصنوعی ابری می‌تواند ارزان‌تر یا توانمندتر شود. این می‌تواند به‌معنای پنجره‌های زمینهٔ بزرگ‌تر، پاسخ‌های سریع‌تر، یا مدل‌های تخصصی‌تر در محصولات واقعی باشد. همچنین می‌تواند به‌معنای رقابت بیشتر بین ارائه‌دهندگان ابر باشد، چون بالاخره گزینه‌های سخت‌افزاری جدیِ بیشتری در مقیاس وجود دارد.

اثری “چکیدن به پایین” هم هست. پلتفرم‌های مرکز داده غالباً بر سرورهای سازمانی آینده، ویژگی‌های ورک‌استیشن، و گاهی حتی ایده‌های GPU مصرفی در گذر زمان اثر می‌گذارند. نباید انتظار یک “کارت گرافیکِ Rubin برای بازی” را هفتهٔ آینده داشته باشید، اما می‌توانید انتظار داشته باشید رقابت پلتفرمی چیزهایی مانند فناوری حافظهٔ بهتر، اندیشهٔ بهتر دربارهٔ بین‌اتصال، و پشته‌های نرم‌افزاری هوش مصنوعی پخته‌تر را پیش ببرد.

پس حتی اگر Rubin و Helios در ابر زندگی کنند، اثرات‌شان روی صفحهٔ شما ظاهر خواهند شد.

جمع‌بندی نهایی

Rubin و Helios نشان می‌دهند که GPUها در حال تبدیل‌شدن به پلتفرم‌های کامل‌اند: محاسبه + حافظه + فابریک + امنیت + نرم‌افزار. رقابت دیگر “تراشهٔ چه کسی سریع‌تر است” نیست، بلکه “رکِ چه کسی پرمشغله‌تر می‌ماند، امن‌تر می‌ماند، و مقرون‌به‌صرفه‌تر می‌ماند.”

NVIDIA Rubin روی یکپارچه‌سازی عمیق، پهنای‌باند مقیاس‌دهیِ NVLink، و یک پشتهٔ شش‌تراشه‌ای با طراحی فشرده شرط می‌بندد. AMD Helios روی گشودگی، طراحی‌های OCP، و استقرارهای بسیار بزرگِ شرکا در مقیاس گیگاوات شرط می‌بندد.

نام‌ها هنوز شبیه فینال یک فصل علمی‌تخیلی به گوش می‌رسند. آن بخش شاید بازاریابی باشد. تغییر پلتفرم نه.

نوشته‌های دیگر نویسنده

Claude Code در برابر Codex: چرا عامل‌های برنامه‌نویسی مبتنی بر هوش مصنوعی همه‌جا هستند
مقاله
Claude Code در برابر Codex: چرا عامل‌های برنامه‌نویسی مبتنی بر هوش مصنوعی همه‌جا هستند
Claude Code در برابر Codex: ویژگی‌ها، جریان‌های کاری، امنیت و موارد استفاده را مقایسه کنید و ببینید چرا دستیارهای کدنویسی هوش مصنوعی ناگهان همه‌جا هستند.
هوش مصنوعی قابل اعتماد می‌داند چه زمانی بگوید: «این منطقی نیست»
مقاله
هوش مصنوعی قابل اعتماد می‌داند چه زمانی بگوید: «این منطقی نیست»
BullshitBench نشان می‌دهد چرا هوش مصنوعیِ قابل‌اعتماد باید پیش‌فرض‌های معیوب را شناسایی کند، نه اینکه فقط پاسخ‌های روان تولید کند. مروری بر قابلیت اتکای هوش مصنوعی، اعتراض، و شناسایی پیش‌فرض‌های نادرست.
مرورگر به عامل تبدیل می‌شود: چرا جست‌وجو شروع به عمل می‌کند
مقاله
مرورگر به عامل تبدیل می‌شود: چرا جست‌وجو شروع به عمل می‌کند
جست‌وجوی هوش مصنوعی در حال یادگیریِ عمل کردن داخل مرورگر است، نه فقط پاسخ دادن. در اینجا می‌بینید عامل‌های مرورگر چگونه سئو، ترافیک، حریم خصوصی و آیندهٔ وبِ باز را دگرگون می‌کنند.
Anthropic در دور نخستِ رقابت هوش مصنوعی پنتاگون پیروز شد
مقاله
Anthropic در دور نخستِ رقابت هوش مصنوعی پنتاگون پیروز شد
آنتروپیک در مناقشه خود با پنتاگون درباره هوش مصنوعی، یک پیروزی زودهنگام در دادگاه به دست آورد و این امر پرسش‌های بزرگ‌تری درباره سازوکارهای حفاظتی برای هوش مصنوعی نظامی، قراردادها و کنترل مطرح می‌کند.