摩尔线程率先支持腾讯混元-A13B模型,完成全功能GPU深度适配

摩尔线程率先支持腾讯混元-A13B模型,完成全功能GPU深度适配

文章来源:智汇AI    发布时间:2025-06-30

摩尔线程宣布,6 月 27 日,腾讯开源基于专家混合(MoE)架构的大语言模型混元-A13B。同日,摩尔线程团队率先完成该模型在全功能 GPU 的深度适配与高效支持。

暂无访问
感谢智汇AI网友菜鸟N号的线索投递!

智汇AI6月29日消息,摩尔线程宣布,6月27日,腾讯开源基于专家混合(MoE)架构的大语言模型混元-A13B。同日,摩尔线程团队率先完成该模型在全功能GPU的深度适配与高效支持。

据介绍,作为业界首个13B级别的MoE开源混合推理模型,混元-A13B(Hunyuan-A13B)总参数量达800亿,激活参数为130亿,不仅在效果上达到了高标准,而且在尺寸上也做到了极致的优化,成功平衡了模型性能与资源占用。

从混元官方发布的benchmark测试结果来看:Hunyuan-A13B在多个代码和数学任务上都取得了最高分数。在MMLU、MMLU-PRO等诸多众聚合任务上,Hunyuan-A13B达到了与Qwen3-A22B模型同等的水平,表现出优秀的综合能力。

摩尔线程积极响应开源社区的号召,旨在让更多开发者基于国产全功能GPU进行AI应用创新。此前,摩尔线程在深度求索DeepSeek、通义千问QwQ-32B和Qwen3等模型的发布当日,就成功实现了Day-0支持。

关于腾讯混元-A13B模型的详细信息,智汇AI此前进行了详细报道,感兴趣的朋友可以自行查看。

相关推荐