روبن + هيليوس: منصات GPU جديدة من إنفيديا وAMD
في الأيام الخوالي، كان يعني معالج رسوميات جديد بطاقة أسرع ومراوح أعلى صوتًا. في عام 2026، تدور الدراما الحقيقية لوحدات معالجة الرسوميات في مراكز البيانات: صفوف من الرفوف، خطة تبريد جادة، وكابلات طاقة تبدو سميكة بما يكفي لتخص محطة فرعية. هناك تصل منصة GPU Rubin من NVIDIA ومنصة الذكاء الاصطناعي على مستوى الرف Helios من AMD — اسمان يبدوان كمشاريع فضائية، ولكنهما في الواقع تصاميم أنظمة لبناء وتشغيل الذكاء الاصطناعي على نطاق هائل.
كلا الشركتين تدفعان الفكرة نفسها: لم تعد شريحة واحدة كافية. يحتاج نظام الذكاء الاصطناعي الحديث إلى GPU، وشريك CPU، وروابط سريعة بين وحدات GPU داخل الرف، وشبكات سريعة بين الرفوف، وبرمجيات تُبقي كل شيء مشغولًا لأشهر. تسمي NVIDIA ذلك “التصميم المُشترك” المتطرف على مستوى الرف. وتُقدِّم AMD Helios كمعمارية رف مفتوحة ومتوافقة مع OCP ومبنية مع شركاء.
لماذا تستبدل “منصات GPU” مفهوم “GPU واحد”
أكبر نماذج الذكاء الاصطناعي اليوم تصطدم بحدود ليست مجرد “مزيد من الأنوية”. تظهر ثلاثة قيود مرارًا وتكرارًا:
1) الذاكرة هي الملك. يتطلب تدريب وتشغيل النماذج الحديثة سعة ذاكرة ضخمة وعرض حزمة مرتفع. لهذا تزداد أهمية HBM (ذاكرة ذات عرض حزمة عالٍ).
2) الاتصال يحدد السرعة. تعتمد العديد من أعباء العمل الحالية، وخاصة نماذج مزيج الخبراء (MoE)، على تواصل وحدات GPU مع بعضها بسرعة وبشكل يمكن التنبؤ به. تقوم نماذج MoE “بتوجيه” الرموز إلى خبراء مختلفين. هذا التوجيه يخلق الكثير من حركة المرور بين وحدات GPU. إذا كان الربط ضعيفًا، ستنتظر وحدات GPU الباهظة بلا عمل.
3) تكلفة كل رمز والطاقة مهمتان. يشهد الاستدلال انفجارًا. لم يعد السؤال “ما مدى سرعة GPU واحد؟” بل “كم عدد الرموز المفيدة التي أحصل عليها لكل واط ولكل يورو؟” المنصة التي تخفض تكلفة الرمز يمكن أن تغيّر أسعار السحابة، وخيارات أحجام النماذج، وحتى استراتيجية المنتج.
لذا تبيع كل من NVIDIA وAMD أنظمة يتصرف فيها الرف كأنه حاسوب عملاق واحد. “المنصة” تشمل الآن شرائح الحوسبة بالإضافة إلى النسيج الشبكي (التمدد داخل الرف والتمدد بين الرفوف)، إضافة إلى ميزات الأمان والاعتمادية التي تُبقي الآلة تعمل.
لهذا تبدو Rubin وHelios مختلفتين عن الإطلاقات القديمة. إنهما أقل شبهًا بـ“بطاقات GPU جديدة” وأكثر شبهًا بـ“لبنات بناء لمراكز بيانات جديدة”.
منصة NVIDIA Rubin GPU لعام 2026: المواصفات، نافذة الإطلاق، والميزات الرئيسية
تضع NVIDIA Rubin بوصفها خليفة Blackwell، مبنية حول أنظمة على مستوى الرف مثل Vera Rubin NVL72 (وأنظمة HGX الأصغر). تصف NVIDIA Rubin بأنها منصة من ست شرائح صُممت معًا على مستوى الرف: معالج Vera، ومعالج الرسوميات Rubin، ومبدّل NVLink 6، وبطاقة ConnectX-9 SuperNIC، ومعالج الشبكة BlueField-4 DPU، ومبدّلات Spectrum Ethernet.
هذه “القائمة ذات الست شرائح” ليست للزينة. تقول NVIDIA: الرف هو المنتج. الـGPU هو النجم، لكن طاقم الدعم يقوم بالعمل الشاق لإمداده بالبيانات، وتحريك النتائج، والحفاظ على سلامة النظام.
وعد Rubin الكبير: خفض تكلفة كل رمز، خصوصًا لـMoE و“الذكاء الاصطناعي الاستدلالي”
تقول NVIDIA إن Rubin يستهدف الذكاء الاصطناعي القائم على الوكلاء، والاستدلال المتقدم، واستدلال MoE واسع النطاق. وفي رسائل الإطلاق، تزعم NVIDIA أن Rubin يمكن أن يحقق حتى 10 أضعاف خفضًا في تكلفة الاستدلال لكل رمز مقارنة بـBlackwell، وأن يدرب بعض نماذج MoE باستخدام عدد وحدات GPU أقل بأربع مرات من المنصة السابقة.
هذه ادعاءات كبيرة، والنتائج الفعلية ستعتمد على النموذج والبرمجيات. ومع ذلك، الاتجاه واضح: صُمم Rubin لجعل الرف بالكامل أكثر كفاءة، لا للفوز بمؤشر قياس وحيد فقط.
محرك Transformer وNVFP4: مطاردة الكفاءة دون خسارة الدقة
في صفحة منصة Rubin، تسلط NVIDIA الضوء على محرك Transformer جديد مع ضغط تكيفي مُسرَّع عتاديًا لتعزيز أداء NVFP4 مع الحفاظ على الدقة. كما تذكر NVIDIA أن Rubin يمكن أن يصل إلى 50 بيتافلوب من استدلال NVFP4.
لماذا التركيز على صيغ مثل FP4؟ لأن الاستدلال غالبًا ما تحدده الاعتبارات الاقتصادية. إذا استطعت تقليل كلفة الحساب والذاكرة لكل رمز، يمكنك خدمة مزيد من المستخدمين، وتشغيل نوافذ سياق أكبر، أو الحفاظ على كمون منخفض دون شراء رف آخر.
الشبكات للتوسّع الأفقي: عندما لا يكفي رف واحد
قد يكون الرف الواحد قويًا، لكن العناقيد الضخمة للذكاء الاصطناعي تحتاج إلى ربط العديد من الرفوف. في عرض NVIDIA في CES، تتضمن حزمة Rubin شبكة Spectrum-X Ethernet Photonics للتوسّع بين الرفوف، بالإضافة إلى ConnectX-9 وBlueField-4.
يشير هذا إلى اتجاه رئيسي: أصبحت قدرة الشبكات وزمن الوصول جزءًا من قصة منصة GPU. يمكن أن تكلّف حركة البيانات بين الرفوف بقدر ما تكلّف الحوسبة نفسها (وقتًا وطاقة).
الجدول الزمني وإشارات التبنّي
في CES 2026، قالت NVIDIA إن Rubin في مرحلة الإنتاج الكامل، مع توقع منتجات الشركاء في النصف الثاني من 2026.
كما أفادت رويترز بأن صفقة NVIDIA متعددة السنوات لتوريد Meta تشمل Blackwell وشرائح Rubin المستقبلية للذكاء الاصطناعي، بالإضافة إلى معالجات Grace وVera.
عندما يخطط مزودو الخدمات السحابية الضخمة حول منصة ما، فعادةً ما يعني ذلك أن المنصة ستكون حقيقية — وقريبًا.
منصة AMD Helios للذكاء الاصطناعي على مستوى الرف: MI450/MI455X وUALink والجدول الزمني
Helios هي إجابة AMD على الذكاء الاصطناعي على مستوى الرف، لكن AMD تسوّقها بأسلوب مختلف. تقدّم AMD Helios كتصميم رف مفتوح ومتوافقًا مع OCP مبنيًا على مواصفات قدّمتها Meta إلى مشروع الحوسبة المفتوحة (OCP). تقول AMD إن Helios تُطرح كتوصيف مرجعي لشركاء OEM/ODM، مع توقع نشر واسع في 2026.
بمعنى آخر: Helios مُصمَّمة ليتم نسخها وتكييفها وبناؤها من قِبل العديد من صانعي الأنظمة — لا كحزمة واحدة محكمة التحكم فقط.
Helios في العالم الواقعي: نشر Meta ومقياس الغيغاواط
في 24 فبراير 2026، أعلنت AMD وMeta شراكة نهائية لنشر ما يصل إلى 6 غيغاواط من مسرّعات AMD Instinct عبر عدة أجيال. قالت AMD إن الشحنات لأول نشر بقدرة غيغاواط واحد من المتوقع أن تبدأ في النصف الثاني من 2026، مدعومة بمعالج Instinct مخصص يعتمد على معمارية MI450 ومعالجات EPYC “Venice” من الجيل السادس التي تشغّل ROCm، مبنية على Helios.
“نشر وحدات GPU بمقياس الغيغاواط” يخبرك أن هذا السوق قد غادر مرحلة الهواية منذ زمن.
الانفتاح والربط البيني: UALink، و“الخطوات الأولى”
نظام على مستوى الرف لا يساوي أكثر من نسيجه الداخلي للتوسّع. يرتبط Helios بفكرة الروابط المفتوحة مثل UALink، لكن التغطيات تشير إلى أن الأنظمة الأولى من Helios قد تستخدم UALink عبر Ethernet أولًا، مع تصعيد UALink الأصلي لاحقًا.
بالنسبة للمشترين، يمكن للروابط المفتوحة تقليل الارتهان لمورّد واحد. بالنسبة لـAMD، هذه مهمة نظام بيئي كبيرة: يجب أن تنضج الأجهزة والمبدّلات والبرمجيات في الوقت نفسه.
ما نعرفه عن كثافة الرف وأهداف الأداء
تصف تقارير مستقلة Helios بأنه تصميم رف عالي الكثافة جدًا. يذكر موقع Tom’s Hardware أن رفوف Helios يمكنها استيعاب 72 مسرّع Instinct MI455X مع نحو 31 تيرابايت من HBM4، مستهدفةً حوالي 2.9 إكساFLOPS بدقة FP4 للاستدلال و1.4 إكساFLOPS بدقة FP8 للتدريب (مع الإشارة إلى UALink عبر Ethernet في الأجهزة الأولى).
كما أفاد موقع The Next Platform بتكوينات رف Helios وأرقام عرض الحزمة واسعة النطاق.
ستختلف هذه الأرقام بحسب الأنظمة النهائية المشحونة، لكنها تُظهر أن AMD تستهدف المستوى نفسه من “مصانع الذكاء الاصطناعي” مثل أنظمة الرف من NVIDIA.
استراتيجية الشركاء: الهند، بائعو الأنظمة، ولعبة النظام البيئي
تدفع AMD Helios عبر الشراكات. في فبراير 2026، أعلنت AMD العمل مع Tata Consultancy Services (TCS) حول تصميم بنية تحتية للذكاء الاصطناعي على مستوى الرف مبني على Helios لعمليات نشر في الهند.
ويدخل Helios عالم الخوادم التجارية أيضًا: ذكر موقع Tom’s Hardware أن HPE تخطط لإتاحة أنظمة مبنية على Helios حول العالم في 2026.
هذه خطوة AMD الكلاسيكية: الفوز عبر الشراكات، والتصاميم القياسية، ومسارات عديدة إلى السوق.
Rubin مقابل Helios: مقارنة قصيرة ومفيدة
بُنيت كلا المنصتين للواقع نفسه: بات الذكاء الاصطناعي مقيّدًا بالذاكرة والشبكات وكفاءة النظام الكلية. لذا يضع كلاهما الرف أولًا.
الفروق المثيرة للاهتمام تتعلق بكيف تصل إلى هناك:
- NVIDIA Rubin = تكامل متطرف. تؤكد NVIDIA على التصميم المشترك عبر ست شرائح وتدفع NVLink 6 كنسيج رئيسي داخل الرف.
- AMD Helios = معمارية رف مفتوحة. تؤكد AMD على التوافق مع OCP، والتصاميم المرجعية، ونظام بيئي يمكنه بناء رفوف شبيهة بـHelios بطرق مختلفة.
بالنسبة لكثير من المشترين، ستكون نقاط الحسم أقل شاعرية:
- احتكاك البرمجيات: نضج CUDA مقابل ROCm لنماذجك ومكتباتك المحددة.
- جاهزية الشبكات: NVLink 6 هو مسار NVIDIA الراسخ؛ خطط AMD للروابط المفتوحة واعدة لكنها تعتمد على توقيت النظام البيئي.
- التسليم والتوريد: إذا لم تستطع الحصول على الرف كاملًا في الوقت المناسب، سيبقى أفضل مخطط طريق مجرد ملف PDF باهظ الثمن.
هل يهم ذلك إذا لم تكن مزودًا فائق الضخامة؟
نعم، حتى إن لم تمتلك يومًا رفًا يحوي 72 GPU (وتُفضّل أن يبقى مبناك على الأرض). ستشكّل Rubin وHelios الخدمات السحابية التي تستخدمها فرق كثيرة يوميًا.
عندما تصبح مراكز البيانات أكثر كفاءة، يمكن أن يصبح الذكاء الاصطناعي السحابي أرخص أو أكثر قدرة. قد يعني ذلك نوافذ سياق أكبر، استجابات أسرع، أو نماذج أكثر تخصصًا في المنتجات الحقيقية. وقد يعني أيضًا مزيدًا من المنافسة بين مزودي السحابة، لأن هناك أخيرًا خيارات عتادية جدّية على نطاق واسع.
هناك أيضًا تأثير “التسرّب إلى الأسفل”. غالبًا ما تؤثر منصات مراكز البيانات في خوادم المؤسسات مستقبلًا، وميزات محطات العمل، وأحيانًا حتى أفكار وحدات معالجة الرسوميات للمستهلكين مع مرور الوقت. يجب ألا تتوقع “بطاقة ألعاب Rubin” الأسبوع القادم، لكن يمكنك توقع أن يدفع سباق المنصات نحو تقنيات ذاكرة أفضل، وتفكير أفضل في الربط البيني، وأطر برمجية للذكاء الاصطناعي أكثر نضجًا.
إذًا، حتى لو عاشت Rubin وHelios في السحابة، فستظهر آثارها على شاشتك.
الخلاصة
تُظهر Rubin وHelios أن وحدات معالجة الرسوميات تتطور إلى منصات كاملة: حوسبة + ذاكرة + نسيج شبكي + أمان + برمجيات. لم تعد المنافسة “مَن شريحته أسرع”، بل “أي رف يبقى مشغولًا، وآمنًا، وميسور الكلفة”.
تراهن NVIDIA Rubin على التكامل العميق، وعرض الحزمة للتوسّع داخل الرف عبر NVLink، وحزمة من ست شرائح مصممة بإحكام. وتراهن AMD Helios على الانفتاح، وتصاميم OCP، وعمليات نشر ضخمة مع الشركاء تُقاس بالغيغاواط.
لا تزال الأسماء تبدو كأنها نهاية موسم خيال علمي. قد يكون ذلك تسويقًا. أما تحوّل المنصة فحقيقي.