AI教程

MT-TransformerEngine – 摩尔线程开源的高效训练与推理优化框架

MT-TransformerEngine 是摩尔线程开源的高效训练与推理优化框架,专为 Transformer 模型设计。框架通过算子融合、并行加速等技术,充分基于摩尔线程全功能 GPU 的计算潜力,显著提升训练效率。

什么是生成对抗网络(GANs)

生成对抗网络(GANs)是一种深度学习模型,由生成器和判别器两部分组成,通过互相博弈学习达到数据生成的目的。生成器的任务是从随机噪声中生成数据,而判别器则负责判断输入的数据是否真实。在训练过程中,生成器和判别器会进行一场“博弈”。

赤兔Chitu – 清华联合清程极智开源的大模型推理引擎

Chitu(赤兔)是清华大学高性能计算研究所与清程极智联合开源的高性能大模型推理引擎,专为解决大模型在推理阶段的高成本和低效率问题设计,具有强大的硬件适配能力,支持英伟达多款GPU及国产芯片,打破了对特定硬件(如英伟达Hopper架构)的依赖。

什么是监督式微调(Supervised Fine-Tuning, SFT)

监督式微调(Supervised Fine-Tuning, SFT)是在预训练模型的基础上,使用特定任务的标注数据集进行进一步训练的过程。预训练模型通常在大规模的无监督数据集上训练,学习语言的基本结构和知识。SFT通过标注数据指导模型在特定任务上进行预测和推理,调整模型的权重以匹配特定任务的数据分布。

Open-LLM-VTuber – AI数字人语音交互项目,支持实时语音对话和视觉感知

Open-LLM-VTuber 是开源的跨平台语音交互 AI 伴侣项目。支持实时语音对话、视觉感知,配备生动的 Live2D 动态形象,能完全离线运行,保护隐私。用户将其作为虚拟女友、男友或宠物,享受个性化互动体验。

什么是交叉验证(Cross-validation)

交叉验证(Cross-validation)是统计分析中一种重要的模型验证技术,主要用于评估模型在未知数据上的泛化能力。它通过将数据集分割成若干个子集,然后使用不同的子集组合进行多次训练和测试,以获得对模型性能的稳健估计。

MetaStone-L1-7B – 元石智算推出的轻量级推理模型

MetaStone-L1-7B 是 MetaStone 系列中的轻量级推理模型,专为提升复杂下游任务的性能而设计。在数学和代码等核心推理基准测试中达到了并行模型的顶尖水平(SOTA),与 Claude-3.5-Sonnet-1022 和 GPT4o-0513 等 API 模型的性能相当。

什么是微调(Fine-Tuning)

微调(Fine-Tuning)是一种在预训练模型基础上,针对特定任务或数据集进行细微的参数调整的过程。这一过程充分利用了预训练模型在大规模数据集上学习到的通用知识,加速了新任务的学习过程,往往能取得更好的效果。预训练模型是在大规模无标注或弱标注的数据集上通过自监督学习得到的,已经具备了对一般自然语言结构或视觉特征的良好理解能力。

文心大模型4.5 – 百度推出的首个原生多模态大模型

文心大模型4.5是百度正式发布的最新一代首个原生多模态大模型,在多模态理解、文本和逻辑推理等方面有显著提升,多项测试表现优于GPT4.5。模型已上线百度智能云千帆大模型平台,企业用户和开发者登录即可调用API。

文心大模型X1 – 百度推出的深度思考模型

文心大模型X1是百度推出的深度思考模型。具备“长思维链”,擅长中文知识问答、文学创作、逻辑推理等。X1增加了多模态能力,能理解和生成图片,能调用工具生成代码、图表等丰富内容。基于递进式强化学习、思维链和行动链的端到端训练等关键技术,通过飞桨与文心的联合优化,大幅降低了推理成本。