英伟达公司通过发布下一代Vera Rubin平台,向人工智能芯片行业的其他竞争对手发起挑战。
在今天的GTC 2026大会上宣布的这一平台,包含了不少于七款新芯片,旨在为首席执行官黄仁勋所说的"历史上最伟大的基础设施建设"提供动力。
Vera Rubin以首次发现暗物质证据的先驱天文学家的名字命名,它远不止是对上一代图形处理单元的简单升级。英伟达表示,这是一次完整的架构重新设计,旨在推动企业向"智能体AI"转变——在这个世界中,自主AI智能体能够进行推理、使用第三方软件工具并代表人类执行复杂工作负载。
Vera Rubin平台以新的Rubin GPU和Vera中央处理器为核心,但这还不是全部。该平台还包括英伟达的NVLink 6交换机、ConnectX-9 SuperNIC、BlueField-4数据处理单元和Spectrum-6以太网交换机,以及专为支持万亿参数模型推理的确定性、低延迟要求而设计的全新英伟达Groq 3大型处理单元。
黄仁勋承诺,Vera Rubin将在AI计算性能方面实现"代际飞跃"。黄仁勋这样描述它:"七个突破性芯片,五个机架,一台巨型超级计算机,为AI的每个阶段提供动力。智能体AI的拐点已经到来。"
新的AI技术栈
英伟达表示,希望从销售独立芯片和单机服务器转向销售完整的"AI工厂",这些工厂由完全集成的机架级系统和集群级部署组成,以支持主权AI部署。
这一策略的核心是新的Vera Rubin NVL72,这是一个液冷机架级系统,由72个Rubin GPU和36个Vera CPU组成,通过高速NVLink 6互连连接。该系统还集成了新的ConnectX-9 SuperNIC和BlueField-4 DPU,以实现"突破性效率"。
例如,英伟达表示,Vera Rubin NVL72平台可用于训练大型混合专家模型,所需的GPU数量仅为使用上一代Blackwell芯片的四分之一。在推理方面,公司表示Vera Rubin将以仅十分之一的每Token成本提供10倍更高的吞吐量。
对于智能体推理工作负载,英伟达推出了Vera CPU机架,在单个集群中包含256个CPU。据该公司解释,它专为强化学习和智能体工作负载而设计,这些工作负载需要大量基于CPU的仿真来验证GPU生成的结果。根据英伟达的说法,这些机架在推理任务方面比传统的x86 CPU服务器快50%,效率提高一倍。
同时,BlueField-4 STX存储机架旨在充当专用的"上下文内存"层,AI智能体可以使用它在大规模、多轮交互过程中保持一致性。英伟达表示,通过将缓存数据卸载到BlueField-4芯片,公司可以将推理吞吐量提高多达五倍。
最后是英伟达Groq LPX机架,旨在为加速计算设立新标准。它针对低延迟工作负载和智能体系统的大上下文需求,将Vera Rubin的性能与英伟达的定制LPU相结合,将每兆瓦的推理吞吐量加速35倍。英伟达表示,当与Vera Rubin GPU配对使用时,它们将通过为每个输出Token共同计算底层AI模型的每一层来提升性能。
OpenAI集团公司和Anthropic公司的首席执行官山姆·奥特曼和达里奥·阿莫代伊都对新平台给予了高度赞扬。奥特曼表示:"英伟达基础设施是让我们能够不断推进AI前沿的基础。有了英伟达Vera Rubin,我们将运行更强大的模型和智能体,实现大规模应用,为数亿人提供更快速、更可靠的系统。"
解决AI的能源瓶颈问题
新芯片不仅关乎原始性能,它们还解决了AI基础设施的两个主要问题,即功耗和散热。通过新的Vera Rubin DSX AI工厂参考设计,英伟达为数据中心运营商构建多个大规模Vera Rubin芯片集群提供了综合蓝图。
DSX堆栈由英伟达的DSX Max-Q软件驱动,该软件使用动态功率配置,在固定功率范围内将基础设施密度提高30%。同时,DSX Flex帮助AI工厂与电网交互,释放"搁浅"的能源。达索系统公司和Cadence公司等企业表示,它们已经将该蓝图集成到各自的系统工程和现实数据中心数字孪生平台中。
此外,英伟达推出了英伟达Omniverse DSX蓝图,允许施耐德电气公司和西门子公司等客户构建其AI工厂的"物理精确数字孪生"。通过虚拟仿真气流、功率利用、网络拓扑和热行为,这些公司将能够更好地优化其AI基础设施,以更低的成本获得更高的性能。
英伟达表示,客户无需等待太久就能获得新的Vera Rubin平台。预计该平台将通过亚马逊网络服务公司、谷歌云和微软公司等云基础设施合作伙伴,以及戴尔科技公司和超微计算机公司等硬件制造商在今年下半年发货。
Q&A
Q1:Vera Rubin平台有什么特殊之处?
A:Vera Rubin是英伟达发布的下一代AI平台,包含七款新芯片,实现了完整的架构重新设计。它专为"智能体AI"时代设计,能够支持自主AI智能体进行推理、使用第三方工具并执行复杂任务,在AI计算性能方面实现了代际飞跃。
Q2:Vera Rubin NVL72系统相比前代产品有什么优势?
A:Vera Rubin NVL72是液冷机架级系统,由72个Rubin GPU和36个Vera CPU组成。在训练方面,它训练大型混合专家模型所需的GPU数量仅为上一代Blackwell芯片的四分之一。在推理方面,能够以十分之一的每Token成本提供10倍更高的吞吐量。
Q3:英伟达如何解决AI基础设施的能耗问题?
A:英伟达通过DSX Max-Q软件使用动态功率配置,在固定功率范围内将基础设施密度提高30%。DSX Flex帮助AI工厂与电网交互释放搁浅能源。同时推出Omniverse DSX蓝图,让客户构建AI工厂的物理精确数字孪生,通过虚拟仿真优化基础设施性能。