AI教程

什么是奖励模型(Reward Model)

奖励模型是强化学习中的一个核心概念,用于评估智能体在特定状态下的行为表现。在大型语言模型(LLMs)中,奖励模型通过对输入的问题和答案进行评分,指导模型生成更符合人类期望和安全标准的输出。

什么是提示工程(Prompt Engineering)

提示工程(Prompt Engineering)是一门新兴学科,专注于开发和优化提示词(Prompt),帮助用户有效地利用大型语言模型(Large Language Model, LLM)进行各种应用场景和研究领域。掌握提示工程的技能有助于用户更好地理解大型语言模型的能力和局限性。

Multi-Speaker – AudioShake 推出的多说话人声分离模型

Multi-Speaker是AudioShake推出的全球首个高分辨率多说话人分离模型。支持将音频中的多个说话人精准分离到不同轨道,解决传统音频工具在处理重叠语音时的难题。Multi-Speaker适用于多种场景,先进神经架构支持高采样率,适合广播级音频,支持处理长达数小时的录音,在高重叠和低重叠场景,保持一致的分离效果,为音频编辑和创作带来革命性变革。

什么是模型泛化(Generalization)

模型泛化(Generalization)是机器学习中的一个核心概念,指的是模型在训练数据之外的新数据上的表现能力。换句话说,泛化能力衡量的是模型能否在未见过的样本上做出正确的预测或推断。具有良好泛化能力的模型能够将从训练数据中学到的知识有效地应用到新的、未见过的数据上,这是机器学习模型在实际应用中表现良好的关键。

UniAct – 清华、商汤、北大、上海AI Lab共同推出的具身基础模型框架

UniAct 是新型的具身基础模型框架,解决不同机器人之间行为异构性的问题。通过学习通用行为,捕捉不同机器人共享的原子行为特征,消除因物理形态和控制接口差异导致的行为异构性。

什么是上下文窗口(Context Window)

上下文窗口指的是在自然语言处理(NLP)任务中,模型在处理一个特定输入时所考虑的上下文信息的范围。具体来说,它决定了模型在生成或理解文本时,可以同时看到和利用多少个词或字符的信息。

ReCamMaster – 浙大联合快手等推出的视频重渲染框架

ReCamMaster 是浙江大学、快手科技等联合推出的视频重渲染框架,能根据新的相机轨迹重新生成视频内容。通过预训练模型和帧维度条件机制,结合多相机同步数据集和相机姿态条件,实现视频视角、运动轨迹的灵活调整。

Stable Virtual Camera – Stability AI 等机构推出的 AI 模型,2D图像转3D视频

Stable Virtual Camera 是 Stability AI 推出的 AI 模型,能将 2D 图像转换为具有真实深度和透视感的 3D 视频。用户可以通过指定相机轨迹和多种动态路径(如螺旋、推拉变焦、平移等)来生成视频。模型支持从 1 到 32 张输入图像生成不同宽高比(如 1:1、9:16、16:9)的视频,最长可达 1000 帧。

什么是规模定律(Scaling Law)

规模定律(Scaling Law)描述了模型性能如何随着模型规模(如参数数量)、训练数据集大小以及用于训练的计算资源的增加而变化。体现为模型性能与这些因素之间的幂律关系,即模型性能会随着规模的增长而按照一定的规律性变化。具体来说,随着模型参数量的增加、数据集的扩大和计算资源的提升,模型性能会得到改善,但这种改善遵循特定的幂律规律。

Instella – AMD开源的30亿参数系列语言模型

Instella是AMD推出的系列30亿参数的开源语言模型。模型完全从零开始在AMD Instinct™ MI300X GPU上训练而成,基于自回归Transformer架构,包含36个解码器层和32个注意力头,支持最长4096个标记的序列。