DeepSeek V3.1 发布,更令人好奇的是UE8M0 FP8

DeepSeek V3.1 发布,更令人好奇的是UE8M0 FP8

文章来源:智汇AI    发布时间:2025-09-08

算力即权力

暂无访问

DeepSeek推出了V3.1版本,简单过一下亮点:混合推理架构:一个模型同时支持思考模式与非思考模式。更高的思考效率:相比DeepSeek-R1-0528,DeepSeek-V3.1-Think能在更短时间内给出答案。更强的Agent能力:通过Post-Training优化,新模型在工具使用与智能体任务中的表现有较大提升。

但更让人好奇的是,DeepSeek还在置顶留言里强调:UE8M0FP8是针对即将发布的下一代国产芯片设计。

这句话放在当下的语境里,就显得耐人寻味——毕竟不久前,相关部门才约谈英伟达,要求解释H20芯片的安全风险。

也正因如此,几个技术性的名词才变得格外值得关注:参数精度到底是什么?为什么芯片会决定它的形式?

这些改动背后,或许预示着国内AI行业正在进入一个软硬件协同的新阶段。

1

看不见的小数点,决定了大模型的命运

在深度学习里,参数就是模型的大脑神经元之间的“权重”,训练时需要不断更新、存储、计算。精度(precision)就是用多少位二进制数来记录这些参数。

在介绍FP8之前,先得回到计算机最基本的问题:机器是怎么存数字的?

最简单的方式叫整数(int)。它就像算盘上的珠子,能表示的是一个个精确的格子:1、2、3、4。但整数没法表示3.14这样的圆周率,也很难处理科学计算中常见的极大值或极小值。

于是,科学家们发明了浮点数(floatingpoint),也就是FP8中的FP。顾名思义,小数点的位置是“浮动”的,既能写成3.14159这样的日常数字,也能写成6.02×10²³这样天文级的指数。浮点数本质上就是把一个数字拆成三部分:符号位、指数、尾数。符号位决定正负,指数决定小数点的位置,尾数决定精度。

浮点数基本可以表示任何数字,代价是,同样的内存位数,用得越多,表示得越精确;用得越少,表示得越粗糙。

在很长一段时间里,FP32(32位浮点数)是计算机的黄金标准,它精度高,范围广,几乎是科学计算、图像处理、AI的通用方式。但当大模型的参数量级膨胀到数千亿甚至万亿,FP32就显得臃肿了。每一条权重都要用32位去存,显存根本不够用,训练时间也被拖长。

于是,行业开始尝试降低精度。先是FP16(16位浮点数),后来是FP8(8位浮点数)。举个不恰当例子,就像把一张4K高清照片压缩成480p的小图,细节损失在所难免,但能存更多张,还能传输得更快。

用英伟达技术博客里的一张图可以直观的看出来,同样用H100,FP8的速度远远高于FP16。

训练大模型时,最大的瓶颈不是算法,而是算力和显存。NVIDIA官方博客指出,FP8在不显著牺牲模型效果的前提下,能让吞吐量翻倍、显存占用减半,这是训练GPT级别大模型时极具吸引力的优势。

换句话说,在大模型这种追求“规模胜过精度”的赛道上,FP8成了必然选择。

英伟达技术博客:https://developer.nvidia.com/zh-cn/blog/fp8-precision-performance/

2

谁制定规则,谁就掌握算力

那FP8就FP8,DeepSeek说的“UE8M0FP8”是什么?为什么还要适配国产芯片?

首先,FP8本身并不是一个彻底中立的国际标准。表面上,NVIDIA曾经和Intel、Arm一起推动过FP8的规范化,推出了E4M3和E5M2两种格式,分别侧重精度和数值范围,看起来像是一次开放的行业标准化行动。

但在真正落地时,NVIDIA在自家的GPU上加了很多“优化”:比如per-tensorscaling、per-blockscaling这样的动态缩放策略,用来解决FP8动态范围太窄、容易溢出的问题。又比如在TensorCore上内置了针对FP8的指令集优化,使得FP8在H100上能直接跑满算力。这些优化细节没有写进统一标准里,却被深度绑定在NVIDIA的硬件和软件栈中。

NVIDIA最新的Blackwell架构原生支持一种全新的“微缩浮点格式”(Microscalingformats),包括MXFP8(8‑bit浮点)、MXFP6(6‑bit)、MXFP4(4‑bit)。有研究者在高质量数据集上进行了大规模验证:一个8亿参数的模型,在使用了MXFP8‑E4M3格式和精心设计的数值转换策略后,训练结果几乎达到了传统BF16(bfloat16)的水平。说白了,在Blackwell架构中,使用MXFP8格式的预训练效果表现最好。

参考论文:RecipesforPre-trainingLLMswithMXFP8https://arxiv.org/pdf/2506.08027

回到DeepSeek在V3.1发布官微评论中强调的UE8M0FP8,并不是NVIDIA官方的FP8标准,而是一种变体格式。它更接近一种极端的范围优先策略,几乎舍弃了小数部分精度。

这就像你宁愿用一把刻度粗糙的卷尺,也要保证它足够长,能从房间一直量到操场。虽然看不到毫米级的细节,但至少不会量到一半溢出。

为什么要做这样的取舍?因为国产GPU在底层电路和指令集设计上,并没有完全兼容NVIDIA的FP8方案。正如上文提到的,英伟达有自己的“优化”,而国产GPU并不具备这种“优化”,如果直接照搬,结果往往是数值不稳定,梯度爆炸,训练根本收不住。

结合前几天DeepSeekR2延期是因为国产芯片不行的新闻,DeepSeek在这个时间发声还是很有必要的。DeepSeek必须在模型端做出妥协:用UE8M0这种“范围优先”的格式,来适配国产芯片的硬件逻辑,确保国产芯片能跑通的折中方案。

这是一种软硬件之间的“互相成就”。模型厂商愿意牺牲一些细节精度,换来国产芯片的稳定运行;而芯片厂商也通过这种合作,逐渐建立起自己的FP8生态。

3

国产GPU的FP8联盟

当然,由此产生的另一个问题是,DeepSeek在哪家国产芯片上训练啊?

(此处不做为任何投资建议,纯属小道消息,只是为了凑字数)

比如沐曦曦云C600芯片就在2025年正式亮相。官方明确宣称,它原生支持FP8精度,并且采用了多精度混合算力架构:既能运行传统的FP32/FP16任务,也能用FP8高效加速大模型训练。

C600其实早在2024年10月就完成流片,目前正处于小批量量产阶段。与此同时,下一代C700系列也已经立项,预计在2026年Q2进入流片测试。

除了沐曦,燧原科技也在2025年推出了最新的L600芯片。这颗芯片历时两年半开发,最大的亮点是采用了训推一体的架构:既能承担大模型的训练任务,又能直接用于推理部署。更重要的是,L600原生支持FP8低精度。这与DeepSeek模型的精度策略正好对齐。

UE8M0只是一个冷冰冰的精度参数,放在论文里也许只值半行字。可在今天,它却像是一种信号:国产芯片厂商和大模型公司,开始真正坐到了一张桌子上,去谈怎么一起往前走。大模型不再盲从英伟达的算力逻辑,而是尝试和国产硬件对齐,哪怕过程并不优雅。

相关推荐