Rubin + Helios: Новые GPU-платформы от NVIDIA и AMD
Раньше новый GPU означал более быструю видеокарту и более шумные вентиляторы. В 2026 году настоящая драма вокруг GPU разыгрывается в дата-центрах: ряды стоек, продуманный план охлаждения и силовые кабели такой толщины, что им самое место на подстанции. Именно туда приходят платформа GPU NVIDIA Rubin и стойко-масштабируемая платформа ИИ AMD Helios — два названия, звучащие как космические проекты, но на деле это системные дизайны для построения и эксплуатации ИИ в огромных масштабах.
Обе компании продвигают одну и ту же мысль: одного чипа больше недостаточно. Современной системе ИИ нужны GPU, партнёрский CPU, быстрые связи между GPU внутри стойки, быстрая сеть между стойками и ПО, которое держит всё занятым месяцами. NVIDIA называет это радикальным «совместным проектированием» на уровне стойки. AMD описывает Helios как открытую, согласованную с OCP архитектуру стойки, созданную вместе с партнёрами.
Почему «платформы GPU» вытесняют «один GPU»
Крупнейшие модели ИИ сегодня упираются в ограничения, которые не решаются просто «добавим ядер». Снова и снова всплывают три узких места:
1) Память — главное. Обучение и обслуживание современных моделей требуют огромной ёмкости и пропускной способности памяти. Поэтому память высокой пропускной способности (HBM) становится всё важнее.
2) Связь определяет скорость. Многие текущие нагрузки, особенно модели типа mixture‑of‑experts (MoE), зависят от того, насколько быстро и предсказуемо GPU общаются друг с другом. В MoE токены «направляются» к разным экспертам. Это порождает интенсивный трафик GPU‑к‑GPU. Если интерконнект слабый, дорогие GPU простаивают.
3) Важны стоимость за токен и энергопотребление. Инференс стремительно растёт. Вопрос уже не «насколько быстр один GPU?», а «сколько полезных токенов я получаю на ватт и на евро?». Платформа, снижающая стоимость за токен, может изменить цены в облаке, выбор размера моделей и даже продуктовую стратегию.
Поэтому и NVIDIA, и AMD продают системы, где стойка ведёт себя как один огромный компьютер. «Платформа» теперь включает вычислительные чипы плюс фабрику межсоединений (масштабирование scale‑up внутри стойки и scale‑out между стойками), а также функции безопасности и надёжности, которые держат машину в работе.
По этой причине Rubin и Helios ощущаются иначе, чем прежние анонсы. Это уже меньше про «новые видеокарты» и больше про «новые строительные блоки дата‑центра».
Платформа GPU NVIDIA Rubin 2026: характеристики, сроки и ключевые особенности
NVIDIA позиционирует Rubin как преемника Blackwell, построенного вокруг систем уровня стойки, таких как Vera Rubin NVL72 (и более компактные системы HGX). NVIDIA описывает Rubin как платформу из шести чипов, спроектированных совместно на уровне стойки: CPU Vera, GPU Rubin, коммутатор NVLink 6, ConnectX‑9 SuperNIC, BlueField‑4 DPU и коммутаторы Spectrum Ethernet.
Этот список «из шести чипов» — не для красоты. NVIDIA говорит: продуктом является стойка. GPU — звезда, но «второстепенные роли» обеспечивают подачу данных, перемещение результатов и безопасность системы.
Главное обещание Rubin: более низкая стоимость за токен, особенно для MoE и «рассуждающего ИИ»
По словам NVIDIA, Rubin нацелен на агентный ИИ, продвинутые рассуждения и крупномасштабный инференс MoE. В анонсах NVIDIA утверждает, что Rubin способен обеспечить до 10 раз более низкую стоимость инференса за токен по сравнению с Blackwell, а также обучать некоторые модели MoE, используя в 4 раза меньше GPU, чем прежняя платформа.
Это смелые заявления, и реальные результаты зависят от модели и ПО. Но направление ясно: Rubin спроектирован для повышения эффективности всей стойки, а не ради победы в одном бенчмарке.
Transformer Engine и NVFP4: рост эффективности без потери точности
На странице платформы Rubin NVIDIA выделяет новый Transformer Engine с аппаратно ускоренной адаптивной компрессией для повышения производительности NVFP4 при сохранении точности. NVIDIA также заявляет, что Rubin может достигать до 50 петафлопс NVFP4 в инференсе.
Почему акцент на форматах вроде FP4? Потому что инференс часто ограничен экономикой. Если снизить вычислительную и «памятную» стоимость за токен, можно обслужить больше пользователей, запускать большие окна контекста или держать низкую задержку без покупки ещё одной стойки.
Масштабирование сети (scale‑out): когда одной стойки мало
Одна стойка может быть мощной, но крупным кластерам ИИ нужно объединять множество стоек. В презентации NVIDIA на CES стек платформы Rubin включает Spectrum‑X Ethernet Photonics для масштабируемой (scale‑out) сети, а также ConnectX‑9 и BlueField‑4.
Это указывает на ключевой тренд: возможности сети и задержки теперь — часть истории платформы GPU. Перемещение данных между стойками может стоить столько же (по времени и энергии), сколько и сами вычисления.
Сроки и сигналы внедрения
На CES 2026 NVIDIA заявила, что Rubin находится в полном серийном производстве, а продукты партнёров ожидаются во второй половине 2026 года.
Reuters также сообщило, что многолетний контракт NVIDIA на поставки для Meta включает Blackwell и будущие чипы ИИ Rubin, а также CPU Grace и Vera.
Когда гиперскейлеры планируют вокруг платформы, это обычно значит, что платформа будет реальной — и скоро.
Стойко‑масштабируемая платформа ИИ AMD Helios: MI450/MI455X, UALink и сроки
Helios — ответ AMD на ИИ уровня стойки, но подаётся он иначе. AMD позиционирует Helios как открытый дизайн стойки, согласованный с OCP и основанный на спецификациях, поданных Meta в Open Compute Project. AMD говорит, что Helios выпускается как референсный дизайн для партнёров OEM/ODM, а массовые развертывания ожидаются в 2026 году.
Иными словами: Helios задуман так, чтобы его копировали, адаптировали и собирали многие производители систем — а не только в виде одного строго контролируемого стека.
Helios в реальном мире: развертывание у Meta и масштаб в гигаватты
24 февраля 2026 года AMD и Meta объявили об окончательном партнёрстве по развертыванию до 6 гигаватт GPU AMD Instinct нескольких поколений. AMD заявила, что отгрузки в рамках первого развертывания на 1 гигаватт ожидаются во второй половине 2026 года; основу составят кастомные GPU Instinct на архитектуре MI450 и процессоры 6‑го поколения EPYC «Venice» под ROCm, всё это — на базе Helios.
«Развертывание GPU в масштабах гигаватта» говорит о том, что этот рынок давно вышел из любительской фазы.
Открытость и межсоединения: UALink и «первые шаги»
Система уровня стойки хороша ровно настолько, насколько хорош её scale‑up‑фабрик. Helios привязан к идее открытых межсоединений вроде UALink, но сообщения указывают, что ранние системы Helios сначала могут использовать UALink поверх Ethernet, а нативный UALink наберёт обороты позже.
Для заказчиков открытые межсоединения снижают «привязку к вендору». Для AMD это большая экосистемная задача: одновременно должны созреть «железо», коммутаторы и ПО.
Что известно о плотности стойки и целевых показателях производительности
Независимые публикации описывают Helios как очень плотный дизайн стойки. По данным Tom’s Hardware, в стойку Helios можно уместить 72 ускорителя Instinct MI455X примерно с 31 ТБ HBM4, целясь в около 2,9 экзафлопс FP4 для инференса и 1,4 экзафлопс FP8 для обучения (с оговоркой про UALink поверх Ethernet в ранних машинах).
The Next Platform также сообщал о конфигурациях стоек Helios и показателях пропускной способности в крупном масштабе.
Эти числа будут различаться в финальных серийных системах, но они показывают, что AMD нацелена на тот же уровень «фабрики ИИ», что и стоечные системы NVIDIA.
Стратегия партнёрств: Индия, вендоры систем и ставка на экосистему
AMD продвигает Helios через партнёрства. В феврале 2026 года AMD объявила о работе с Tata Consultancy Services (TCS) над проектом стойко‑масштабируемой инфраструктуры ИИ на базе Helios для развертываний в Индии.
И Helios входит в коммерческий серверный мир: Tom’s Hardware сообщал, что HPE планирует сделать системы на базе Helios доступными по всему миру в 2026 году.
Это классический ход AMD: побеждать за счёт партнёрств, стандартных дизайнов и множества каналов на рынок.
Rubin против Helios: короткое и полезное сравнение
Обе платформы созданы под одну и ту же реальность: ИИ теперь ограничен памятью, сетью и общей системной эффективностью. Поэтому обе ставят стойку на первое место.
Интересные различия — в путях достижения цели:
- NVIDIA Rubin = экстремальная интеграция. NVIDIA делает упор на совместное проектирование шести чипов и продвигает NVLink 6 как ключевую фабрику межсоединений в стойке.
- AMD Helios = открытая архитектура стойки. AMD подчёркивает соответствие OCP, референсные дизайны и экосистему, которая может собирать стойки в стиле Helios разными способами.
Для многих покупателей решающими будут менее поэтичные вещи:
- Сложности с ПО: зрелость CUDA против ROCm для ваших конкретных моделей и библиотек.
- Готовность сети: NVLink 6 — отлаженный путь NVIDIA; планы AMD по открытым межсоединениям многообещающи, но зависят от сроков созревания экосистемы.
- Поставки и доступность: если вы не можете получить полную стойку вовремя, лучший роадмап превращается в очень дорогой PDF.
Имеет ли это значение, если вы не гиперскейлер?
Да, даже если у вас никогда не будет стойки с 72 GPU (и вы предпочитаете, чтобы ваше здание оставалось на земле). Rubin и Helios будут формировать облачные сервисы, которыми многие команды пользуются каждый день.
Когда дата‑центры становятся эффективнее, облачный ИИ может становиться дешевле или способнее. Это может означать большие окна контекста, более быстрые ответы или более специализированные модели в реальных продуктах. Это также может означать большую конкуренцию между облачными провайдерами, потому что наконец появляются серьёзные аппаратные альтернативы в масштабе.
Есть и эффект «trickle‑down». Платформы дата‑центров часто со временем влияют на будущие корпоративные серверы, возможности рабочих станций и порой даже на идеи потребительских GPU. Не стоит ждать «игровую карту Rubin» на следующей неделе, но можно ожидать, что гонка платформ подтолкнёт вперёд память, межсоединения и зрелость стеков ПО для ИИ.
Так что, даже если Rubin и Helios живут в облаках, их эффект проявится на вашем экране.
Главный вывод
Rubin и Helios показывают, что GPU эволюционируют в полноценные платформы: вычисления + память + фабрика межсоединений + безопасность + ПО. Соревнование уже не «чей чип быстрее», а «чья стойка остаётся загруженной, защищённой и доступной по цене».
Ставка NVIDIA Rubin — на глубокую интеграцию, пропускную способность NVLink для scale‑up и плотно спроектированный стек из шести чипов. Ставка AMD Helios — на открытость, дизайны OCP и очень крупные партнёрские развертывания, измеряемые в гигаваттах.
Названия всё ещё звучат как финал сезона НФ‑сериала. Эта часть может быть маркетингом. А вот сдвиг к платформам — нет.