WhisperSpeech是一个开源的文字转语音系统,其最大的亮点是通过对OpenAI的Whisper语音识别模型进行反向工程,实现了接收文字输入,并利用修改后的Whisper模型生成听起来自然的语音输出。WhisperSpeech的语音输出在发音准确性和自然度方面都非常出色。
体验地址:https://replicate.com/lucataco/whisperspeech-small
目前,WhisperSpeech模型是在英语LibreLight数据集上训练的,但下一个版本的目标是多种语言(Whisper和EnCodec都是多语言的)。系统还可以在单个句子中混合多种语言,并且增加了测试语音克隆的简便方法。
WhisperSpeech 项目路线图:
-声学标记提取:改进声学标记的提取过程。
-语义标记提取:使用Whisper模型生成和量化语义标记。
-S->A模型转换:开发将语义标记转换为声学标记的模型。
-T->S模型转换:实现从文字标记到语义标记的转换。
-提升EnCodec语音质量:优化EnCodec模型以提高语音合成质量。
-短句推理优化:改善系统处理短句的能力。
-扩展情感语音数据集:收集更大的情感语音数据。
-文档化LibriLight数据集:详细记录HuggingFace上的数据集。
-多语言语音收集:聚集社区资源,收集多种语言的语音。
-训练多语言模型:开发支持多语言的文字到语音模型。
本文来源于#站长之家,由@tom 整理发布。如若内容造成侵权/违法违规/事实不符,请联系本站客服处理!
该文章观点仅代表作者本人,不代表本站立场。本站不承担相关法律责任。
如若转载,请注明出处:https://www.zhanid.com/news/569.html