文章来源:智汇AI 发布时间:2025-09-12
哔哩哔哩(Bilibili)昨日(9 月 8 日)发布公告,宣布正式开源其自研语音生成大模型 IndexTTS-2.0,是首个支持精确时长控制(Duration Control)的自回归(Autoregressive)零样本文本转语音(TTS)系统。
暂无访问智汇AI9月9日消息,B站(Bilibili)昨日(9月8日)发布公告,宣布正式开源其自研语音生成大模型IndexTTS-2.0,是首个支持精确时长控制(DurationControl)的自回归(Autoregressive)零样本文本转语音(TTS)系统。
智汇AI援引GitHub页面介绍,相比较传统逐token生成的TTS系统,IndexTTS-2.0首次在自回归架构中实现了精准时长控制,特别适合视频配音等需严格音画同步的应用场景。
据介绍,IndexTTS2支持两种生成模式:
一种可通过明确指定生成的token数实现精确时长控制;
另一种则自由生成,保持输入提示的韵律特征。
在声音表达上,IndexTTS2实现了情感特征与说话人音色的解耦(Emotion-SpeakerDisentanglement):分离说话人音色与情绪特征,分别控制。
这意味着用户可以独立指定音色来源和情绪来源,例如用一段音频保留音色,再用另一段不同情感的音频或文本描述赋予情绪,在零样本条件下,模型能精准还原目标音色并完全重现指定情绪。
为提升高情感表达下的语音清晰度,团队引入了GPT潜在表示,并设计三阶段训练策略增强生成稳定性。此外,他们基于Qwen3微调实现了“软指令”机制,允许用户通过自然语言描述来直观控制情绪方向,降低使用门槛。
在技术性能上,多数据集实验表明,IndexTTS2在词错率、说话人相似度和情绪保真度上均超越当前最先进零样本TTS模型。其方法具备良好扩展性,可应用于其他大型自回归TTS系统。团队表示,将公开代码和预训练权重,推动学术研究与产业落地。
技术报告地址:https://arxiv.org/abs/2506.21619
仓库地址:https://github.com/index-tts/index-tts
Demo展示地址:https://index-tts.github.io/index-tts2.github.io