英伟达新一代AI系统Vera Rubin亮相:性能功耗比提升十倍
英伟达(Nvidia)新一代AI系统Vera Rubin将于2026年下半年推出,其性能功耗比较前代Grace Blackwell提升十倍。该系统由130万个部件组成,包含72个Rubin GPU和36个Vera CPU,主要由台积电制造,部件来自全球超80家供应商。
Vera Rubin为全液冷设计,模块化结构便于维护,单机架重近2吨,含约1300个微芯片。英伟达称供应链已做好准备,尽管面临全球内存短缺挑战。Meta、OpenAI、Anthropic、亚马逊、谷歌和微软等企业计划采用该系统。预计系统价格在350万至400万美元之间。
竞争对手AMD将于年内推出Helios系统,Meta已承诺采购其6吉瓦容量。英伟达计划至2029年在美国制造价值5000亿美元的AI基础设施。该公司CEO黄仁勋已于2026年1月宣布Vera Rubin进入全面生产阶段。
据研究机构Futurum Group分析,Vera Rubin代表服务器架构的重大演进,将计算、网络、布线和冷却系统集成于单机架内,实现最高效率和性能。此前,Grace Blackwell于2024年投产,已大幅提升单系统算力。Vera Rubin的推出标志着英伟达在AI基础设施领域进一步巩固领先优势。
英伟达AI基础设施负责人Dion Harris表示,公司已向供应商提供详细预测,确保供应链稳定。面对来自AMD、Broadcom及谷歌TPU等自研芯片的竞争,Harris称:“对任何尝试者致敬,但此非易事。”
Vera Rubin系统在加州圣克拉拉总部向CNBC展示,单个超芯片包含两个Rubin GPU和一个Vera CPU,共17,000个部件。其功耗虽较前代增加约一倍,但单位功耗性能提升十倍,有助于降低数据中心能耗与用水量。
Meta已宣布计划于2027年在数据中心部署Vera Rubin。亚马逊AWS数据中心已部署搭载Trainium 2芯片的“超服务器”,谷歌数据中心则广泛使用TPU。行业正呈现客户自研芯片与英伟达系统并存的趋势。
英伟达未公布具体定价,但Futurum Group估计其价格较Grace Blackwell上涨约25%,约为350万至400万美元。该系统将在美国、台湾及墨西哥富士康新厂生产。
编辑点评
英伟达Vera Rubin系统的发布标志着全球AI基础设施进入新阶段。其十倍性能功耗比的突破,直接回应了AI算力扩张中的能源瓶颈问题,对全球数据中心运营模式具有深远影响。当前AI算力需求呈指数级增长,电力与冷却成本已成为限制扩展的关键因素。Vera Rubin的全液冷设计与模块化架构,不仅提升效率,也降低了运维复杂度,为大规模部署提供可行性。
从全球供应链看,该系统依赖台积电制造核心芯片,并整合来自中美、越南、泰国、以色列等20国以上供应商的部件,体现了高度全球化分工。然而,全球内存短缺与美国半导体供应链安全政策可能对供应稳定性构成挑战。英伟达通过长期订单与详细预测管理供应链,显示其行业领导力。
在竞争格局上,AMD Helios系统的推出及Meta对其6吉瓦容量的承诺,显示客户寻求第二供应商以降低对英伟达的依赖。与此同时,谷歌、亚马逊等科技巨头加速自研芯片部署,反映出AI基础设施市场的多极化趋势。英伟达虽仍主导市场,但面临技术与生态双重压力。
长期来看,Vera Rubin的普及可能重塑全球数据中心建设标准,推动液冷技术与高效能架构成为行业主流,同时加速AI产业向更可持续、更高效方向发展。其技术演进与市场反应,将持续影响全球科技产业格局。