Дата публикации
ai_products

Nvidia Vera Rubin: 88-ядерный CPU и стойка Rubin NVL72 для обучения ИИ с меньшим числом GPU

Что появилось / что изменилось

Nvidia на GTC 2026 показала новую платформу Vera Rubin для серверов под ИИ-нагрузки. Она состоит из двух ключевых частей:

  1. Серверный процессор Nvidia Vera:
  • 88 кастомных ядер NVIDIA Olympus.
  • Поддержка многопоточности Spatial Multithreading — каждое ядро ведёт сразу две задачи.
  • Память LPDDR5X с пропускной способностью до 1,2 ТБ/с.
  • По данным Nvidia, Vera в 5 раз быстрее и в 2 раза энергоэффективнее «традиционных серверных процессоров».
  • При работе в паре с GPU Rubin через шину NVLink-C2C суммарная пропускная способность достигает 1,8 ТБ/с.
  1. GPU-платформа Rubin NVL72:
  • В одной стойке: 72 GPU Rubin и 36 CPU Vera.
  • Nvidia говорит, что Rubin NVL72 может обучать модели архитектуры Mixture of Experts, используя в 4 раза меньше GPU, чем решения на архитектуре Blackwell.
  • Заявлен прирост по энергоэффективности инференса: до 10 раз выше пропускная способность на ватт.

Дополнительно Nvidia показала серверную стойку на Vera с 256 жидкостно охлаждаемыми CPU. По их оценке, одна стойка держит более 22 500 одновременных CPU-сред с полной производительностью.

Поддержать платформу планируют крупные провайдеры: AWS, Google Cloud, Microsoft Azure, Oracle Cloud, Alibaba, а также вендоры серверов Dell, HP, Lenovo и другие. Массовые поставки через партнёров Nvidia обещает во второй половине 2026 года.

Как это работает

Vera CPU — это не классический x86-серверный чип, а специализированный процессор под ИИ- и датацентровые нагрузки.

  • 88 ядер Olympus рассчитаны на параллельные задачи: сервисы ИИ, микросервисы, обработку запросов к моделям.
  • Spatial Multithreading даёт каждому ядру по два потока. Проще говоря, одно физическое ядро одновременно обрабатывает две независимые задачи, что повышает загрузку CPU и снижает простои.
  • Использование LPDDR5X вместо привычной серверной DDR-памяти даёт высокую пропускную способность до 1,2 ТБ/с и лучшую энергоэффективность, но это жёстко фиксированная конфигурация памяти на плате, без привычного «докинуть планки».
  • Связка Vera + Rubin работает через NVLink-C2C. Это внутренний высокоскоростной интерфейс между CPU и GPU с пропускной способностью до 1,8 ТБ/с, который уменьшает узкое место между вычислениями на GPU и обслуживающей логикой на CPU.

Rubin NVL72 — это уже готовая GPU-стойка:

  • 72 GPU Rubin внутри одной системы — для обучения и инференса крупных моделей, в том числе Mixture of Experts.
  • 36 CPU Vera в той же конфигурации разгружают GPU от служебных задач: подготовка данных, маршрутизация запросов, оркестрация шардов и экспертов.
  • Жидкостное охлаждение в стойках с 256 Vera CPU позволяет держать высокие частоты и плотность без перегрева, но повышает требования к инфраструктуре датацентра.

Что это значит для вас

Если вы строите или развиваете инфраструктуру ИИ:

  • Vera Rubin интересна как платформа для крупных датацентров и облаков. Она рассчитана на обучение и инференс больших языковых моделей, рекомендательных систем и сервисов с огромным числом одновременных запросов.
  • Заявление о 5-кратном росте производительности и двукратной экономии энергии по сравнению с «традиционными серверными CPU» выглядит привлекательно для тех, у кого счёт за электричество и стойко-место — ключевая статья расходов.
  • Mixture of Experts с в 4 раза меньшим числом GPU, чем на Blackwell, — аргумент для тех, кто упирается в лимит по количеству и стоимости GPU в стойке.

Если вы — разработчик или ИИ-команда в компании:

  • Напрямую купить Vera Rubin для локального офиса вряд ли получится: это история про облака и крупные датацентры.
  • Ваш сценарий — ждать появления инстансов на основе Vera Rubin в AWS, Google Cloud, Azure, Oracle Cloud, Alibaba и у интеграторов на базе серверов Dell, HP, Lenovo.
  • В России такие мощности, скорее всего, появятся через партнёров и реселлеров, а не напрямую от Nvidia. Доступ будет зависеть от санкций и политики конкретного провайдера. В ряде случаев для работы с зарубежными облаками понадобится VPN и зарубежный юрлицо/карта.

Кому Vera Rubin не пригодится:

  • Малому бизнесу, фрилансерам и энтузиастам, которые запускают модели на одной-двух видеокартах.
  • Командам, которым достаточно готовых API от тех же облаков и не нужно управлять инфраструктурой на уровне стоек.

Место на рынке

Nvidia с Vera Rubin усиливает контроль над полным стеком для ИИ: от CPU до GPU-платформы и сетевых адаптеров.

  • В серверах на Vera будут использоваться сетевые адаптеры ConnectX SuperNICs и BlueField-4 DPU. Это закрывает ещё и сетевую часть, что удобно для крупных заказчиков, но привязывает их к экосистеме Nvidia.
  • По сравнению с «традиционными серверными процессорами» Vera заявлена в 5 раз быстрее и в 2 раза экономичнее по энергии, но Nvidia не называет конкретных конкурентов или тесты. Можно ожидать прицел на сегмент, где сейчас доминируют классические x86-серверы и специализированные чипы для облаков.
  • Внутри линейки самой Nvidia Rubin NVL72 позиционируется как более эффективная платформа для Mixture of Experts, чем архитектура Blackwell: в 4 раза меньше GPU на обучение и до 10 раз выше пропускная способность инференса на ватт.

Итог: Vera Rubin — это ставка Nvidia на плотные, энергоэффективные стойки под крупные ИИ-сервисы. Для конечного пользователя это, скорее всего, выльется в более дешёвые и быстрые облачные инстансы для обучения и инференса, если провайдеры действительно получат заявленную экономию на железе и электричестве.


Читайте также

Nvidia Vera Rubin: 88-ядерный CPU и стойка Rubin NVL72 для обучения ИИ с меньшим числом GPU — VogueTech | VogueTech