文章来源:智汇AI 发布时间:2025-09-01
微软推出两款自研AI模型:MAI-Voice-1语音模型和MAI-1-preview通用模型。MAI-Voice-1能快速生成音频,已应用于Copilot Daily功能;MAI-1-preview则展示了Copilot未来发展方向。用户可在Copilot Labs体验这些新功能。
暂无访问智汇AI8月29日消息,周四,微软人工智能部门正式推出其首批两款自研AI模型——MAI-Voice-1语音模型与MAI-1-preview通用模型。据微软介绍,全新的MAI-Voice-1语音模型仅需单块GPU,就能在1秒内生成时长1分钟的音频;而MAI-1-preview模型则“让用户提前窥见Copilot未来功能的发展方向”。
目前,微软已将MAI-Voice-1应用于多项功能中:例如在“CopilotDaily”功能里,AI主持人会通过该模型播报当日热点新闻;同时,它还能生成播客风格的对话内容,帮助用户理解各类话题。
普通用户可在CopilotLabs平台亲自体验MAI-Voice-1:不仅能输入希望AI表达的内容,还可自定义语音音色与说话风格。除这款语音模型外,微软此次同步推出的MAI-1-preview模型,训练过程动用了约1.5万块英伟达H100GPU。该模型专为特定需求用户设计,具备遵循指令的能力,可“为日常咨询提供实用回应”。
微软AI负责人穆斯塔法・苏莱曼去年在《Decoder》播客某期节目中表示,公司内部研发的AI模型并未将企业级应用场景作为核心方向,他解释道:“我的思路是,我们必须打造一款对消费者而言体验极佳的产品,并针对自身应用场景进行深度优化。在广告业务、消费者行为数据等领域,我们拥有海量高预测性、高实用性的数据,因此我的工作重点是构建真正适配‘消费者伙伴’定位的模型。”
据悉,微软AI计划将MAI-1-preview模型应用于Copilot助手的特定文本使用场景(目前Copilot主要依赖OpenAI的大型语言模型)。同时,该模型已开始在AI基准测试平台LMArena上进行公开测试。
智汇AI注意到,微软AI团队在博客文章中写道:“我们对未来发展有着宏大规划。接下来,我们不仅会持续推进技术突破,更相信通过整合一系列针对不同用户需求与应用场景的专业模型,将释放出巨大价值。”