NVIDIA宣布下代AI服务器:288颗GPU+36颗CPU800亿亿次每秒

NVIDIA宣布下代AI服务器:288颗GPU+36颗CPU800亿亿次每秒

文章来源:智汇AI    发布时间:2025-09-16

9月10日消息,除了宣布专门用于大规模上下文处理的RubinCPX,NVIDIA还同时披露了新一代AI服务器,规模和性能实现了大幅度的跃升。“VeraRubinNVL144”定位于AI训练与推理

暂无访问

9月10日消息,除了宣布专门用于大规模上下文处理的RubinCPX,NVIDIA还同时披露了新一代AI服务器,规模和性能实现了大幅度的跃升。

“VeraRubinNVL144”定位于AI训练与推理用途的旗舰产品,应该每个机架配备36颗VeraCPU、144颗RubinGPU,同时搭配1.4PB/s超高带宽的HBM4(容量没说),以及多达75TB存储。

算力性能在NVFP4数据精度下可高达3.5EFlops,也就是每秒350亿亿次,对比GB300NVL72提升3.3倍!

“VeraRubinNVL144CPX”又加入了72颗RubinCPX,组成了单个机架144颗GPU、36颗CPU的庞大规模。

同时,它还有1.7PB/s带宽的HBM4内存、100TB高速存储,以及Quantum-X800InfiniBand或者Spectrum-X以太网,搭配ConnectX-9NIC网卡。

整机算力在NVFP4下达到了惊人的8EFlops,即每秒800亿亿次,对比GB300NVL72提升了7.5倍。

如果有需要,可以将两台服务器组合在一起,配置和算力直接翻倍。

NVIDIA号称,有了这样的AI服务器,每投入1亿美元,就可以换来50亿美元的收获。

NVIDIA最新公布的路线图显示,RubinGPU和相关系统将在2026年底开始登场,2027年推出升级版RubinUltra,2028年则是全新的再下一代FeymanGPU,继续搭配VeraCPU。

相关推荐