Vera Rubin平台全解析:NVIDIA为Agentic AI时代造的超级计算底座
NVIDIA在GTC 2026上发布Vera Rubin平台,定位为Agentic AI时代的超级计算基础设施。该平台整合新一代Vera CPU和Rubin GPU,形成Vera Rubin NVL72和HGX Rubin NVL8等系统配置。专为大规模预训练到实时Agent推理的全AI生命周期设计,高效处理复杂的多步推理和长上下文工作流。同时发布Vera Rubin太空模块,将AI算力延伸至轨道数据中心。该平台代表了NVIDIA从单一GPU供应商向AI全栈基础设施提供商的完整转型。
Vera Rubin平台全解析:NVIDIA为Agentic AI时代造的超级计算底座
2026年3月,NVIDIA在GTC上正式详细披露了**Vera Rubin平台**的完整规格。这是继Blackwell之后的下一代AI计算架构,以发现暗物质的天文学家薇拉·鲁宾命名——象征着挖掘AI能力中"看不见的潜力"。
核心组件全解
Vera CPU(世界首款Agentic AI专用处理器):
- 88颗自研"奥林匹斯(Olympus)"核心
- 支持NVIDIA Spatial Multithreading:每核处理两个任务
- 晶体管数量:**2270亿**颗
- 内存:LPDDR5X,最高**1.5 TB**容量
- 内存带宽:**1.2 TB/s**
- 相比传统机架级CPU:快50%,效率提升2倍(针对Agentic AI和强化学习)
- NVLink-C2C与Rubin GPU互联带宽:**1.8 TB/s**(PCIe Gen 6的7倍)
- 支持全机密计算(Confidential Computing)
Vera Rubin NVL72(机架级AI超算):
- 72颗Rubin GPU + 36颗Vera CPU
- NVLink 6双向带宽:每GPU **3.6 TB/s**,整机架 **260 TB/s**
- HBM4内存:**20.7 TB**;LPDDR5X内存:54 TB;总快速内存:**75 TB**
- HBM带宽:**1.6 PB/s**
- 推理性能:**3.6 EFLOPS**(NVFP4),比Blackwell平台提升10倍能效,降低10倍每token成本
- 训练性能:**2.5 EFLOPS**(NVFP4),训练MoE模型只需Blackwell 1/4的GPU数量
- 集成组件:NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6以太网交换机、**NVIDIA Groq 3 LPU**
Groq 3 LPU的集成:意外的合作
Vera Rubin NVL72中集成了**NVIDIA Groq 3 LPU**,这是一个出人意料的组合。Groq(注意:不是马斯克的xAI,是硅谷AI芯片公司Groq Inc.)的语言处理单元(LPU)以极低延迟推理著称。将Groq 3 LPU集成进NVIDIA的架构,意味着NVL72同时支持:
- 高吞吐量推理:由Rubin GPU处理
- 超低延迟推理:由Groq 3 LPU处理
这是针对Agentic AI工作负载的专项优化——AI Agent需要快速的决策推理(低延迟),同时也需要大模型的高质量输出(高吞吐量)。
Vera Rubin Ultra:数据中心的怪兽
Vera Rubin Ultra是企业级数据中心配置,支持最多**144颗GPU**互联,全软件集成。这是针对训练最前沿AI模型(如下一代GPT级别模型)的配置,竞争对手是Google TPU集群和Meta自研硬件。
Vera Rubin Space Module:太空算力的野心
NVIDIA还发布了**Vera Rubin Space Module**——轨道数据中心平台,专为在低轨卫星上运行LLM设计:
- AI算力:比H100提升**25倍**(针对轨道推理工作负载)
- 目标市场:星链类低轨卫星网络的边缘AI推理
这一发布尚属概念验证阶段,但信号明确:NVIDIA在布局太空边缘计算市场。
第三代机密计算:企业级安全
Vera Rubin NVL72中搭载了第三代NVIDIA机密计算(Confidential Computing),创建了覆盖所有36颗Vera CPU、72颗Rubin GPU和NVLink Fabric的**统一可信执行环境**。这对政府、金融、医疗等对数据安全要求极高的行业用户至关重要。
与Blackwell的性能对比
| 指标 | Blackwell | Vera Rubin NVL72 |
|------|-----------|-----------------|
| 推理能效 | 基准 | **10倍**提升 |
| 每Token成本 | 基准 | **降低10倍** |
| MoE训练GPU需求 | 基准 | **减少75%** |
| 机架总快速内存 | - | 75 TB |
| NVLink带宽/GPU | - | 3.6 TB/s |
供货时间:2026年下半年
NVIDIA确认Vera Rubin平台目前处于全面生产阶段,预计**2026年下半年**开始向客户交付。首批客户将是各大云服务商(AWS、Azure、Google Cloud)和超大规模AI实验室。
战略意义:Agentic AI的基础设施
Vera Rubin平台的设计哲学与Blackwell有本质区别:Blackwell是为大规模并行训练优化的,而Vera Rubin是为**Agentic AI的持续在线推理**优化的。
Agentic AI(AI Agent)的工作模式需要:
1. 持续在线(不是批处理)
2. 低延迟决策推理
3. 大量并发Agent实例
4. 强化学习的持续更新
Vera CPU的88核高性能设计、Groq 3 LPU的超低延迟推理、以及NVLink 6的高带宽互联,都是针对这一工作模式的精准设计。
结语
Vera Rubin不只是Blackwell的性能提升版,它是为AI Agent时代重新设计的计算基础设施。10倍能效提升和10倍成本降低,将使AI推理服务的单位经济效益发生根本性变化,为更广泛的Agentic AI应用提供经济基础。2026年下半年的大规模交付,将是真正检验这一愿景的时刻。