混元-A13B-腾讯开源基于MoE架构的大语言模型

混元-A13B-腾讯开源基于MoE架构的大语言模型

文章来源:智汇AI    发布时间:2025-08-12

混元-A13B是腾讯最新推出的开源大语言模型,基于专家混合(MoE)架构,总参数量达800亿,激活参数为130亿。具备轻量级设计和高效推理能力,仅需1张中低端G

暂无访问

混元-A13B是什么

混元-A13B是腾讯最新推出的开源大语言模型,基于专家混合(MoE)架构,总参数量达800亿,激活参数为130亿。具备轻量级设计和高效推理能力,仅需1张中低端GPU卡即可部署,极大地降低了使用门槛,适合个人开发者和中小企业。模型在数学、科学和逻辑推理任务中表现出色,能进行复杂的小数比较提供分步解析。用户可根据需求选择“快思考”或“慢思考”模式,兼顾速度与准确性。混元-A13B开源ArtifactsBench和C3-Bench两个数据集,分别用于代码评估和智能体(Agent)场景模型评估,进一步推动了开源生态的发展。

混元-A13B

混元-A13B的主要功能

低资源部署:混元-A13B采用专家混合(MoE)架构,仅需1张中低端GPU卡即可部署,大幅降低了推理延迟与计算开销,适合资源有限的个人开发者和中小企业。

相关推荐