文章来源:智汇AI 发布时间:2025-07-07
苹果公司悄然在 Hugging Face 上发布了一款名为 DiffuCode-7B-cpGRPO 的开源 AI 模型,该模型在生成代码方面具有创新特性,能够不按顺序生成代码,且性能媲美顶级开源编码模型。
暂无访问智汇AI7月5日消息,苹果公司悄然在HuggingFace上发布了一款名为DiffuCode-7B-cpGRPO的开源AI模型,该模型在生成代码方面具有创新特性,能够不按顺序生成代码,且性能媲美顶级开源编码模型。
智汇AI注:传统大语言模型(LLM)生成代码的方式,如同大多数人类阅读文本的方式,采用从左到右、从上到下顺序。
这主要是因为这些LLM采用自回归(Autoregression)方式工作,意味着当用户向它们提问后,它们会处理整个问题,预测答案的第一个token,然后带着这个token重新处理整个问题,预测第二个token,以此类推。
LLM还有一个名为“温度”(Temperature)的设置,用于控制输出的随机性。在预测下一个token后,模型会为所有可能的选项分配概率。较低的温度意味着更有可能选择最可能的token,而较高的温度则给予模型更多的自由,选择不太可能的token。
而另一种选择就是扩散(Diffusion)模型,这种模型通常用于图像模型。简而言之,模型从一个模糊、噪声的图像开始,迭代去除噪声,同时考虑到用户的需求,逐渐将其引导至更接近用户请求的图像。
苹果公司发布的模型名为DiffuCode-7B-cpGRPO,它基于上月发表、名为《DiffuCoder:UnderstandingandImprovingMaskedDiffusionModelsforCodeGeneration》的论文。
论文描述了一个采用扩散优先策略的代码生成模型,但有一个特别之处:当采样温度从默认的0.2增加到1.2后,DiffuCoder在生成token的顺序上变得更加灵活,从而摆脱了严格的从左到右的约束。
更为有趣的是,苹果的这款模型建立在阿里的开源Qwen2.5-7B模型上,将这个模型按照DiffuCoder论文中的描述,改造成了一个基于扩散的decoder,然后调整它以更好地遵循指示。完成这些后,他们又用超过20000个精心挑选的编码示例训练了它的另一个版本。
在主流编程跑分中,DiffuCode-7B-cpGRPO保持了在生成代码时不严格依赖从左到右的生成方式情况下,相比较主流基于扩散的编程模型,测试得分提高了4.4%。