文章来源:智汇AI 发布时间:2025-09-16
9月10日消息,除了宣布专门用于大规模上下文处理的RubinCPX,NVIDIA还同时披露了新一代AI服务器,规模和性能实现了大幅度的跃升。“VeraRubinNVL144”定位于AI训练与推理
暂无访问9月10日消息,除了宣布专门用于大规模上下文处理的RubinCPX,NVIDIA还同时披露了新一代AI服务器,规模和性能实现了大幅度的跃升。
“VeraRubinNVL144”定位于AI训练与推理用途的旗舰产品,应该每个机架配备36颗VeraCPU、144颗RubinGPU,同时搭配1.4PB/s超高带宽的HBM4(容量没说),以及多达75TB存储。
算力性能在NVFP4数据精度下可高达3.5EFlops,也就是每秒350亿亿次,对比GB300NVL72提升3.3倍!
“VeraRubinNVL144CPX”又加入了72颗RubinCPX,组成了单个机架144颗GPU、36颗CPU的庞大规模。
同时,它还有1.7PB/s带宽的HBM4内存、100TB高速存储,以及Quantum-X800InfiniBand或者Spectrum-X以太网,搭配ConnectX-9NIC网卡。
整机算力在NVFP4下达到了惊人的8EFlops,即每秒800亿亿次,对比GB300NVL72提升了7.5倍。
如果有需要,可以将两台服务器组合在一起,配置和算力直接翻倍。
NVIDIA号称,有了这样的AI服务器,每投入1亿美元,就可以换来50亿美元的收获。
NVIDIA最新公布的路线图显示,RubinGPU和相关系统将在2026年底开始登场,2027年推出升级版RubinUltra,2028年则是全新的再下一代FeymanGPU,继续搭配VeraCPU。