- Дата публикации
Nvidia Vera Rubin: 88-ядерный CPU и стойка Rubin NVL72 для обучения ИИ с меньшим числом GPU
Что появилось / что изменилось
Nvidia на GTC 2026 показала новую платформу Vera Rubin для серверов под ИИ-нагрузки. Она состоит из двух ключевых частей:
- Серверный процессор Nvidia Vera:
- 88 кастомных ядер NVIDIA Olympus.
- Поддержка многопоточности Spatial Multithreading — каждое ядро ведёт сразу две задачи.
- Память LPDDR5X с пропускной способностью до 1,2 ТБ/с.
- По данным Nvidia, Vera в 5 раз быстрее и в 2 раза энергоэффективнее «традиционных серверных процессоров».
- При работе в паре с GPU Rubin через шину NVLink-C2C суммарная пропускная способность достигает 1,8 ТБ/с.
- GPU-платформа Rubin NVL72:
- В одной стойке: 72 GPU Rubin и 36 CPU Vera.
- Nvidia говорит, что Rubin NVL72 может обучать модели архитектуры Mixture of Experts, используя в 4 раза меньше GPU, чем решения на архитектуре Blackwell.
- Заявлен прирост по энергоэффективности инференса: до 10 раз выше пропускная способность на ватт.
Дополнительно Nvidia показала серверную стойку на Vera с 256 жидкостно охлаждаемыми CPU. По их оценке, одна стойка держит более 22 500 одновременных CPU-сред с полной производительностью.
Поддержать платформу планируют крупные провайдеры: AWS, Google Cloud, Microsoft Azure, Oracle Cloud, Alibaba, а также вендоры серверов Dell, HP, Lenovo и другие. Массовые поставки через партнёров Nvidia обещает во второй половине 2026 года.
Как это работает
Vera CPU — это не классический x86-серверный чип, а специализированный процессор под ИИ- и датацентровые нагрузки.
- 88 ядер Olympus рассчитаны на параллельные задачи: сервисы ИИ, микросервисы, обработку запросов к моделям.
- Spatial Multithreading даёт каждому ядру по два потока. Проще говоря, одно физическое ядро одновременно обрабатывает две независимые задачи, что повышает загрузку CPU и снижает простои.
- Использование LPDDR5X вместо привычной серверной DDR-памяти даёт высокую пропускную способность до 1,2 ТБ/с и лучшую энергоэффективность, но это жёстко фиксированная конфигурация памяти на плате, без привычного «докинуть планки».
- Связка Vera + Rubin работает через NVLink-C2C. Это внутренний высокоскоростной интерфейс между CPU и GPU с пропускной способностью до 1,8 ТБ/с, который уменьшает узкое место между вычислениями на GPU и обслуживающей логикой на CPU.
Rubin NVL72 — это уже готовая GPU-стойка:
- 72 GPU Rubin внутри одной системы — для обучения и инференса крупных моделей, в том числе Mixture of Experts.
- 36 CPU Vera в той же конфигурации разгружают GPU от служебных задач: подготовка данных, маршрутизация запросов, оркестрация шардов и экспертов.
- Жидкостное охлаждение в стойках с 256 Vera CPU позволяет держать высокие частоты и плотность без перегрева, но повышает требования к инфраструктуре датацентра.
Что это значит для вас
Если вы строите или развиваете инфраструктуру ИИ:
- Vera Rubin интересна как платформа для крупных датацентров и облаков. Она рассчитана на обучение и инференс больших языковых моделей, рекомендательных систем и сервисов с огромным числом одновременных запросов.
- Заявление о 5-кратном росте производительности и двукратной экономии энергии по сравнению с «традиционными серверными CPU» выглядит привлекательно для тех, у кого счёт за электричество и стойко-место — ключевая статья расходов.
- Mixture of Experts с в 4 раза меньшим числом GPU, чем на Blackwell, — аргумент для тех, кто упирается в лимит по количеству и стоимости GPU в стойке.
Если вы — разработчик или ИИ-команда в компании:
- Напрямую купить Vera Rubin для локального офиса вряд ли получится: это история про облака и крупные датацентры.
- Ваш сценарий — ждать появления инстансов на основе Vera Rubin в AWS, Google Cloud, Azure, Oracle Cloud, Alibaba и у интеграторов на базе серверов Dell, HP, Lenovo.
- В России такие мощности, скорее всего, появятся через партнёров и реселлеров, а не напрямую от Nvidia. Доступ будет зависеть от санкций и политики конкретного провайдера. В ряде случаев для работы с зарубежными облаками понадобится VPN и зарубежный юрлицо/карта.
Кому Vera Rubin не пригодится:
- Малому бизнесу, фрилансерам и энтузиастам, которые запускают модели на одной-двух видеокартах.
- Командам, которым достаточно готовых API от тех же облаков и не нужно управлять инфраструктурой на уровне стоек.
Место на рынке
Nvidia с Vera Rubin усиливает контроль над полным стеком для ИИ: от CPU до GPU-платформы и сетевых адаптеров.
- В серверах на Vera будут использоваться сетевые адаптеры ConnectX SuperNICs и BlueField-4 DPU. Это закрывает ещё и сетевую часть, что удобно для крупных заказчиков, но привязывает их к экосистеме Nvidia.
- По сравнению с «традиционными серверными процессорами» Vera заявлена в 5 раз быстрее и в 2 раза экономичнее по энергии, но Nvidia не называет конкретных конкурентов или тесты. Можно ожидать прицел на сегмент, где сейчас доминируют классические x86-серверы и специализированные чипы для облаков.
- Внутри линейки самой Nvidia Rubin NVL72 позиционируется как более эффективная платформа для Mixture of Experts, чем архитектура Blackwell: в 4 раза меньше GPU на обучение и до 10 раз выше пропускная способность инференса на ватт.
Итог: Vera Rubin — это ставка Nvidia на плотные, энергоэффективные стойки под крупные ИИ-сервисы. Для конечного пользователя это, скорее всего, выльется в более дешёвые и быстрые облачные инстансы для обучения и инференса, если провайдеры действительно получат заявленную экономию на железе и электричестве.