Rubin + Helios: แพลตฟอร์ม GPU ใหม่จาก NVIDIA และ AMD Rubin + Helios: แพลตฟอร์ม GPU ใหม่จาก NVIDIA และ AMD

ในอดีต การมี GPU รุ่นใหม่หมายถึงการ์ดที่เร็วขึ้นและพัดลมที่ดังขึ้น ในปี 2026 ดราม่าที่แท้จริงของ GPU เกิดขึ้นในดาต้าเซ็นเตอร์: แถวของแร็ก แผนการระบายความร้อนที่จริงจัง และสายไฟที่หนาจนเหมือนของสถานีไฟฟ้าย่อย นั่นคือจุดที่แพลตฟอร์ม GPU Rubin ของ NVIDIA และแพลตฟอร์ม AI ระดับแร็ก Helios ของ AMD ปรากฏตัว — สองชื่อที่ฟังดูเหมือนโครงการอวกาศ แต่แท้จริงแล้วคือการออกแบบระบบสำหรับสร้างและรัน AI ในสเกลมหาศาล

ทั้งสองบริษัทผลักดันแนวคิดเดียวกัน: ชิปตัวเดียวไม่พออีกต่อไป ระบบ AI สมัยใหม่ต้องมี GPU มีคู่หูเป็น CPU มีลิงก์ความเร็วสูงระหว่าง GPU ภายในแร็ก เครือข่ายความเร็วสูงระหว่างแร็ก และซอฟต์แวร์ที่ทำให้ทุกอย่างทำงานเต็มมือเป็นเดือน ๆ NVIDIA เรียกสิ่งนี้ว่า “co-design” ขั้นสุดที่ระดับแร็ก ส่วน AMD อธิบาย Helios ว่าเป็นสถาปัตยกรรมแร็กแบบเปิดที่สอดคล้องกับ OCP ซึ่งสร้างร่วมกับพาร์ทเนอร์

ทำไม “แพลตฟอร์ม GPU” กำลังมาแทน “การ์ด GPU”

โมเดล AI ขนาดใหญ่ในวันนี้ชนข้อจำกัดที่ไม่ใช่แค่ “เพิ่มคอร์ให้มากขึ้น” อีกต่อไป ข้อจำกัดสำคัญสามข้อโผล่มาซ้ำแล้วซ้ำเล่า:

1) หน่วยความจำคือราชา การฝึกและให้บริการโมเดลสมัยใหม่ต้องการความจุและแบนด์วิดท์หน่วยความจำจำนวนมาก นั่นจึงทำให้ HBM (high-bandwidth memory) มีความสำคัญมากขึ้นเรื่อย ๆ

2) การสื่อสารเป็นตัวตัดสินความเร็ว งานจำนวนมากในปัจจุบัน โดยเฉพาะโมเดลแบบ mixture-of-experts (MoE) พึ่งพาให้ GPU คุยกันได้รวดเร็วและคาดเดาได้ โมเดล MoE จะ “ส่งต่อ” โทเค็นไปยังผู้เชี่ยวชาญต่าง ๆ การส่งต่อนั้นสร้างทราฟฟิก GPU-ต่อ-GPU จำนวนมาก หากอินเตอร์คอนเน็กต์อ่อนแอ GPU ราคาแพงก็ต้องนั่งรอว่างเปล่า

3) ต้นทุนต่อโทเค็นและพลังงานมีความสำคัญ การทำอินเฟอเรนซ์กำลังเติบโตแบบระเบิด คำถามจึงไม่ใช่ “GPU ตัวเดียวเร็วแค่ไหน?” แต่คือ “ได้โทเค็นที่มีประโยชน์กี่ตัวต่อวัตต์และต่อยูโร?” แพลตฟอร์มที่ลดต้นทุนต่อโทเค็นได้สามารถเปลี่ยนราคาคลาวด์ ทางเลือกขนาดโมเดล และแม้แต่กลยุทธ์ผลิตภัณฑ์ได้

ดังนั้นทั้ง NVIDIA และ AMD จึงขายระบบที่มองว่าแร็กหนึ่งตู้ทำงานเหมือนคอมพิวเตอร์ยักษ์เครื่องเดียว “แพลตฟอร์ม” ตอนนี้ครอบคลุมทั้งชิปคอมพิวต์ บวกกับเฟบริก (สเกลอัปภายในแร็กและสเกลเอาต์ระหว่างแร็ก) ตลอดจนคุณสมบัติด้านความปลอดภัยและความเชื่อถือได้ที่ทำให้เครื่องทำงานต่อเนื่อง

นี่คือเหตุผลที่ Rubin และ Helios ให้ความรู้สึกต่างจากการเปิดตัวแบบเก่า ๆ พวกมันไม่ค่อยเหมือน “การ์ด GPU รุ่นใหม่” เท่าไร แต่เหมือน “บล็อกประกอบดาต้าเซ็นเตอร์รุ่นใหม่” มากกว่า

แพลตฟอร์ม GPU NVIDIA Rubin 2026: สเปก กำหนดวางจำหน่าย และคุณสมบัติเด่น

NVIDIA วางตำแหน่ง Rubin เป็นทายาทของ Blackwell โดยสร้างรอบระบบระดับแร็กอย่าง Vera Rubin NVL72 (และระบบ HGX ที่เล็กกว่า) NVIDIA อธิบาย Rubin ว่าเป็นแพลตฟอร์มแบบหกชิปที่ออกแบบร่วมกันในระดับแร็ก: ซีพียู Vera, จีพียู Rubin, สวิตช์ NVLink 6, การ์ดเครือข่าย ConnectX-9 SuperNIC, DPU รุ่น BlueField-4 และสวิตช์อีเธอร์เน็ต Spectrum

รายการ “หกชิป” นั้นไม่ใช่ของตกแต่ง NVIDIA กำลังบอกว่า: แร็กทั้งตู้คือผลิตภัณฑ์ GPU คือพระเอก แต่ทีมนักแสดงสมทบทำงานหนักในการป้อนข้อมูล เคลื่อนย้ายผลลัพธ์ และรักษาความปลอดภัยของระบบ

คำสัญญาใหญ่ของ Rubin: ลดต้นทุนต่อโทเค็น โดยเฉพาะสำหรับ MoE และ “Reasoning AI”

NVIDIA ระบุว่า Rubin เล็งเป้าไปที่ agentic AI การให้เหตุผลขั้นสูง และการทำอินเฟอเรนซ์ MoE ขนาดใหญ่ ในสารเปิดตัว NVIDIA อ้างว่า Rubin สามารถให้ต้นทุนอินเฟอเรนซ์ต่อโทเค็นต่ำกว่า Blackwell สูงสุดถึง 10 เท่า และสามารถฝึกบางโมเดล MoE โดยใช้จำนวนน้อยลงของ GPU ถึง 4 เท่าเมื่อเทียบกับแพลตฟอร์มก่อนหน้า

นี่เป็นคำอ้างที่ใหญ่ และผลลัพธ์จริงจะขึ้นอยู่กับโมเดลและซอฟต์แวร์ อย่างไรก็ดี ทิศทางชัดเจน: Rubin ถูกออกแบบมาเพื่อเพิ่มประสิทธิภาพทั้งแร็ก ไม่ใช่แค่ชนะเกณฑ์วัดผลรายการเดียว

Transformer Engine และ NVFP4: ไล่ล่าประสิทธิภาพโดยไม่เสียความแม่นยำ

บนหน้าแพลตฟอร์ม Rubin NVIDIA เน้น Transformer Engine ตัวใหม่ที่มีการบีบอัดแบบปรับตัวเร่งด้วยฮาร์ดแวร์ เพื่อเร่งประสิทธิภาพ NVFP4 ขณะยังคงความแม่นยำ NVIDIA ยังระบุว่า Rubin สามารถทำอินเฟอเรนซ์แบบ NVFP4 ได้สูงสุดถึง 50 petaFLOPS

ทำไมต้องโฟกัสที่ฟอร์แมตอย่าง FP4? เพราะงานอินเฟอเรนซ์มักถูกจำกัดด้วยเศรษฐศาสตร์ หากคุณลดต้นทุนการคำนวณและหน่วยความจำต่อโทเค็นได้ คุณก็ให้บริการผู้ใช้ได้มากขึ้น ใช้หน้าต่างบริบทใหญ่ขึ้น หรือคงความหน่วงต่ำได้โดยไม่ต้องซื้อแร็กเพิ่ม

เครือข่ายสเกลเอาต์: เมื่อแร็กเดียวไม่พอ

แร็กเดียวอาจทรงพลัง แต่คลัสเตอร์ AI ขนาดใหญ่ต้องเชื่อมหลายแร็ก ในงาน CES ของ NVIDIA สแตกแพลตฟอร์ม Rubin รวม Spectrum-X Ethernet Photonics สำหรับเครือข่ายสเกลเอาต์ พร้อมด้วย ConnectX-9 และ BlueField-4

นี่ชี้ไปยังแนวโน้มสำคัญ: พลังเครือข่ายและความหน่วงกลายเป็นส่วนหนึ่งของเรื่องราวแพลตฟอร์ม GPU การเคลื่อนย้ายข้อมูลระหว่างแร็กอาจมีค่าใช้จ่าย (ทั้งเวลาและพลังงาน) พอ ๆ กับการคำนวณเอง

ไทม์ไลน์และสัญญาณการยอมรับใช้งาน

ที่ CES 2026 NVIDIA ระบุว่า Rubin เข้าสู่การผลิตเต็มรูปแบบแล้ว โดยคาดว่าผลิตภัณฑ์จากพาร์ทเนอร์จะออกในครึ่งหลังของปี 2026
Reuters ยังรายงานว่าข้อตกลงหลายปีของ NVIDIA ในการจัดส่งให้ Meta รวมชิประดับ AI รุ่น Blackwell และ Rubin ในอนาคต ตลอดจนซีพียู Grace และ Vera
เมื่อผู้ให้บริการคลาวด์รายใหญ่ (hyperscaler) วางแผนรอบแพลตฟอร์ม ก็มักหมายถึงแพลตฟอร์มนั้นจะเป็นจริง — และในไม่ช้า

แพลตฟอร์ม AI ระดับแร็ก AMD Helios: MI450/MI455X, UALink และไทม์ไลน์

Helios คือคำตอบของ AMD สำหรับ AI ระดับแร็ก แต่ AMD นำเสนอด้วยสไตล์ต่างกัน AMD อธิบาย Helios ว่าเป็นการออกแบบแร็กแบบเปิดที่สอดคล้องกับ OCP สร้างบนสเปกที่ Meta ส่งให้โครงการ Open Compute Project AMD ระบุว่า Helios ถูกปล่อยเป็นแบบอ้างอิงให้กับพาร์ทเนอร์ OEM/ODM โดยคาดว่าการติดตั้งใช้งานจำนวนมากจะเกิดขึ้นในปี 2026

พูดอีกอย่าง: Helios ถูกออกแบบมาให้คัดลอก ปรับแต่ง และประกอบโดยผู้ผลิตระบบจำนวนมาก — ไม่ใช่สแตกที่ควบคุมอย่างแน่นหนาเพียงรายเดียว

Helios ในโลกจริง: การติดตั้งของ Meta และสเกลระดับกิกะวัตต์

เมื่อวันที่ 24 กุมภาพันธ์ 2026 AMD และ Meta ประกาศความร่วมมืออย่างเป็นทางการเพื่อปรับใช้ GPU AMD Instinct สูงสุด 6 กิกะวัตต์ครอบคลุมหลายเจเนอเรชัน AMD ระบุว่าการจัดส่งสำหรับการติดตั้งกิกะวัตต์แรกคาดว่าจะเริ่มในครึ่งหลังของปี 2026 โดยใช้พลังจาก Instinct GPU แบบคัสตอมที่อิงสถาปัตยกรรม MI450 และซีพียู EPYC รุ่นที่ 6 “Venice” ที่รัน ROCm สร้างบน Helios

คำว่า “การติดตั้ง GPU ระดับกิกะวัตต์” บอกชัดว่าตลาดนี้เลิกเป็นงานงานอดิเรกไปนานแล้ว

ความเปิดและอินเตอร์คอนเน็กต์: UALink และ “ก้าวแรก”

ระบบระดับแร็กจะดีได้ก็เท่ากับเฟบริกสเกลอัปของมัน Helios ผูกกับแนวคิดอินเตอร์คอนเน็กต์แบบเปิดอย่าง UALink แต่รายงานต่าง ๆ ชี้ว่า Helios รุ่นแรกอาจใช้ UALink ทับบน Ethernet ก่อน แล้วค่อยไล่สู่ UALink แบบเนทีฟในภายหลัง

สำหรับผู้ซื้อ ลิงก์แบบเปิดช่วยลดการผูกติดผู้ขาย สำหรับ AMD นี่คือภารกิจระบบนิเวศขนาดใหญ่: ฮาร์ดแวร์ สวิตชิง และซอฟต์แวร์ต้องเติบโตไปพร้อมกัน

สิ่งที่เราทราบเกี่ยวกับความหนาแน่นของแร็กและเป้าหมายสมรรถนะ

รายงานอิสระอธิบายว่า Helios เป็นการออกแบบแร็กที่หนาแน่นมาก Tom’s Hardware รายงานว่าแร็ก Helios สามารถบรรจุตัวเร่งความเร็ว Instinct MI455X ได้ 72 ตัว พร้อม HBM4 ราว 31 TB เล็งไปที่สมรรถนะประมาณ 2.9 exaFLOPS แบบ FP4 สำหรับอินเฟอเรนซ์ และ 1.4 exaFLOPS แบบ FP8 สำหรับการฝึก (โดยมีหมายเหตุเรื่อง UALink บน Ethernet ในเครื่องรุ่นแรก)

The Next Platform ก็รายงานการจัดคอนฟิกแร็ก Helios และตัวเลขแบนด์วิดท์ขนาดใหญ่เช่นกัน

ตัวเลขเหล่านี้อาจเปลี่ยนไปตามระบบวางขายจริง แต่สะท้อนว่า AMD เล็งสู่ระดับ “โรงงาน AI” เดียวกับระบบแร็กของ NVIDIA

กลยุทธ์พาร์ทเนอร์: อินเดีย ผู้ผลิตระบบ และเกมของระบบนิเวศ

AMD ผลักดัน Helios ผ่านความร่วมมือ ในเดือนกุมภาพันธ์ 2026 AMD ประกาศทำงานกับ Tata Consultancy Services (TCS) เกี่ยวกับการออกแบบโครงสร้างพื้นฐาน AI ระดับแร็กบน Helios สำหรับการติดตั้งในอินเดีย

และ Helios กำลังก้าวสู่โลกเซิร์ฟเวอร์เชิงพาณิชย์: Tom’s Hardware รายงานว่า HPE วางแผนทำระบบที่ใช้ Helios วางจำหน่ายทั่วโลกในปี 2026

นั่นคือสไตล์คลาสสิกของ AMD: ชนะด้วยพาร์ทเนอร์ ดีไซน์มาตรฐาน และช่องทางสู่ตลาดที่หลากหลาย

Rubin เทียบกับ Helios: สรุปสั้น ๆ ที่ใช้ได้จริง

ทั้งสองแพลตฟอร์มถูกสร้างขึ้นเพื่อความจริงเดียวกัน: วันนี้ AI ถูกจำกัดด้วยหน่วยความจำ เครือข่าย และประสิทธิภาพของระบบโดยรวม ดังนั้นทั้งคู่จึงให้ความสำคัญกับแร็กก่อน

ความแตกต่างที่น่าสนใจอยู่ที่เส้นทางไปถึงเป้าหมายนั้น:

  • NVIDIA Rubin = การบูรณาการแบบสุดทาง NVIDIA เน้นการออกแบบร่วมกันข้ามหกชิป และผลักดัน NVLink 6 ให้เป็นเฟบริกหลักของแร็ก
  • AMD Helios = สถาปัตยกรรมแร็กแบบเปิด AMD เน้นการสอดคล้องกับ OCP แบบอ้างอิง และระบบนิเวศที่สามารถสร้างแร็กสไตล์ Helios ได้หลายแบบ

สำหรับผู้ซื้อจำนวนมาก ประเด็นตัดสินใจจะไม่สวยหรูเท่าไร:

  • แรงเสียดทานด้านซอฟต์แวร์: ความพร้อมของ CUDA เทียบกับ ROCm สำหรับโมเดลและไลบรารีเฉพาะของคุณ
  • ความพร้อมของเครือข่าย: NVLink 6 เป็นเส้นทางที่มั่นคงของ NVIDIA ขณะที่แผนอินเตอร์คอนเน็กต์แบบเปิดของ AMD น่าตื่นเต้นแต่ขึ้นอยู่กับจังหวะของระบบนิเวศ
  • การส่งมอบและซัพพลาย: หากคุณไม่ได้แร็กครบทั้งตู้ตามเวลา โรดแมปที่ดีที่สุดก็กลายเป็น PDF ราคาแพง

เรื่องนี้สำคัญไหมถ้าคุณไม่ใช่ผู้ให้บริการคลาวด์ยักษ์?

สำคัญ แม้ว่าคุณจะไม่มีวันเป็นเจ้าของแร็กที่มี GPU 72 ตัว (และอยากให้ตึกของคุณยังอยู่ติดพื้น) Rubin และ Helios จะกำหนดรูปแบบบริการคลาวด์ที่หลายทีมใช้ทุกวัน

เมื่อดาต้าเซ็นเตอร์มีประสิทธิภาพมากขึ้น AI บนคลาวด์ก็อาจถูกลงหรือเก่งขึ้น นั่นอาจหมายถึงหน้าต่างบริบทที่ใหญ่ขึ้น การตอบสนองที่รวดเร็วขึ้น หรือโมเดลที่เชี่ยวชาญเฉพาะทางมากขึ้นในผลิตภัณฑ์จริง นอกจากนี้ยังหมายถึงการแข่งขันระหว่างผู้ให้บริการคลาวด์ที่มากขึ้น เพราะในที่สุดก็มีตัวเลือกฮาร์ดแวร์ที่จริงจังในสเกลใหญ่

ยังมีเอฟเฟกต์แบบ “ไหลลง (trickle-down)” ด้วย แพลตฟอร์มระดับดาต้าเซ็นเตอร์มักมีอิทธิพลต่อเซิร์ฟเวอร์องค์กรในอนาคต คุณสมบัติเวิร์กสเตชัน และบางครั้งแม้แต่ไอเดียของ GPU สำหรับผู้บริโภค คุณไม่ควรคาดหวัง “การ์ดเกมมิ่ง Rubin” ภายในสัปดาห์หน้า แต่คาดหวังได้ว่าการแข่งขันเชิงแพลตฟอร์มจะผลักดันเทคโนโลยีหน่วยความจำที่ดีขึ้น แนวคิดอินเตอร์คอนเน็กต์ที่ดีขึ้น และสแต็กซอฟต์แวร์ AI ที่สุกงอมยิ่งขึ้น

ดังนั้น แม้ Rubin และ Helios จะอยู่บนคลาวด์ ผลลัพธ์ก็จะปรากฏบนหน้าจอของคุณ

ข้อสรุปสุดท้าย

Rubin และ Helios แสดงให้เห็นว่า GPU กำลังวิวัฒน์เป็นแพลตฟอร์มเต็มรูปแบบ: คอมพิวต์ + หน่วยความจำ + เฟบริก + ความปลอดภัย + ซอฟต์แวร์ การแข่งขันไม่ใช่ “ชิปใครเร็วกว่า” อีกต่อไป แต่คือ “แร็กของใครทำงานเต็มมือ ปลอดภัย และคุ้มค่า”

NVIDIA Rubin เดิมพันกับการบูรณาการลึก แบนด์วิดท์สเกลอัปของ NVLink และสแตกหกชิปที่ออกแบบแน่นหนา AMD Helios เดิมพันกับความเปิด ดีไซน์แบบ OCP และการติดตั้งโดยพาร์ทเนอร์ขนาดใหญ่มหาศาลที่วัดกันเป็นกิกะวัตต์

ชื่อยังคงฟังเหมือนตอนจบซีซันไซไฟ นั่นอาจเป็นการตลาด การเปลี่ยนผ่านสู่แพลตฟอร์มไม่ใช่

โพสต์อื่น ๆ ของผู้เขียน

Claude Mythos ของ Anthropic: แบบจำลองนี้มีความเสี่ยงเกินไปสำหรับการเปิดตัวสู่สาธารณะหรือไม่?
บทความ
Claude Mythos ของ Anthropic: แบบจำลองนี้มีความเสี่ยงเกินไปสำหรับการเปิดตัวสู่สาธารณะหรือไม่?
Claude Mythos Preview เป็นการเปิดตัวปัญญาประดิษฐ์ที่เป็นที่ถกเถียงมากที่สุดของ Anthropic จนถึงปัจจุบัน เรียนรู้ว่าเหตุใดจึงถูกจำกัด มันทำอะไรได้บ้าง และเหตุใดหน่วยงานกำกับดูแลและธนาคารจึงให้ความสนใจ
สิ่งที่ 81,000 คนบอกกับ Anthropic ว่าพวกเขาต้องการจาก AI
บทความ
สิ่งที่ 81,000 คนบอกกับ Anthropic ว่าพวกเขาต้องการจาก AI
Anthropic วิเคราะห์การสัมภาษณ์ผู้ใช้ AI จำนวน 80,508 ราย จาก 159 ประเทศ เพื่อทำความเข้าใจว่าผู้คนต้องการอะไรจาก AI มีความกังวลอะไร และเครื่องมือในปัจจุบันยังบกพร่องตรงไหนบ้าง
Claude Code ปะทะ Codex: ทำไมเอเจนต์เขียนโค้ดด้วย AI จึงมีอยู่ทั่วไป
บทความ
Claude Code ปะทะ Codex: ทำไมเอเจนต์เขียนโค้ดด้วย AI จึงมีอยู่ทั่วไป
Claude Code เทียบกับ Codex: เปรียบเทียบฟีเจอร์ เวิร์กโฟลว์ ความปลอดภัย และกรณีการใช้งาน และดูว่าเหตุใดผู้ช่วยเขียนโค้ดด้วย AI จึงปรากฏอยู่ทั่วทุกที่อย่างกะทันหัน
ปัญญาประดิษฐ์ที่เชื่อถือได้รู้ว่าเมื่อใดควรพูดว่า: “นี่ไม่สมเหตุสมผล”
บทความ
ปัญญาประดิษฐ์ที่เชื่อถือได้รู้ว่าเมื่อใดควรพูดว่า: “นี่ไม่สมเหตุสมผล”
BullshitBench แสดงให้เห็นว่าทำไมระบบ AI ที่เชื่อถือได้จึงต้องตรวจจับสมมติฐานที่ผิดพลาด ไม่ใช่แค่สร้างคำตอบที่สละสลวยเท่านั้น มุมมองเกี่ยวกับความน่าเชื่อถือของ AI การโต้แย้ง และการตรวจจับสมมติฐานเท็จ