MiMo-Embodied-小米推出的跨领域具身大模型

MiMo-Embodied-小米推出的跨领域具身大模型

文章来源:智汇AI    发布时间:2025-11-22

MiMo-Embodied 是小米发布的全球首个开源的跨领域具身大模型,整合了自动驾驶和具身智能两大领域的任务,实现了在环境感知、任务规划、空间理解等多方面的卓

暂无访问

MiMo-Embodied是什么

MiMo-Embodied 是小米发布的全球首个开源的跨领域具身大模型,整合了自动驾驶和具身智能两大领域的任务,实现了在环境感知、任务规划、空间理解等多方面的卓越性能。模型基于视觉语言模型(VLM)架构,通过四阶段训练策略,包括具身智能监督微调、自动驾驶监督微调、链式推理微调和强化学习微调,显著提升了跨领域的泛化能力。在自动驾驶领域,MiMo-Embodied 能精准感知交通场景、预测动态目标行为,并生成安全高效的驾驶规划;在具身智能领域,能理解自然语言指令,完成复杂的任务规划和空间推理。MiMo-Embodied 在多项基准测试中超越了现有的开源和专用模型,展现了强大的多模态交互能力。

MiMo-Embodied

MiMo-Embodied的主要功能

跨领域整合能力:MiMo-Embodied 是首个成功整合自动驾驶与具身智能任务的模型,覆盖环境感知、任务规划、空间理解等核心能力,适用于复杂动态环境中的多模态交互。

相关推荐