首页
期刊介绍
期刊在线
优先发表
当期目录
过刊浏览
浏览排行
下载排行
被引排行
高级检索
编委会
期刊订阅
投稿指南
获奖情况
数据库收录
历史名人
联系我们
所有
标题
作者
关键词
摘要
Doi
栏目
作者地址
基金
中图分类号
首页
期刊介绍
期刊在线
优先发表
当期目录
过刊浏览
浏览排行
下载排行
被引排行
高级检索
编委会
期刊订阅
投稿指南
获奖情况
数据库收录
历史名人
联系我们
所有
标题
作者
关键词
摘要
DOI
栏目
地址
基金
中图分类号
PACS
EEACC
检索
高级检索
论文元数据
论文正文内容
图
表
新闻及其他
检索
高级检索
论文元数据搜索,找到相关信息共
1
条:
其他条件:
年 =
作者 =
关键词 =
选择全部
基于BERT预训练语言模型的印尼语语音合成
赵立铉
,
杨鉴
2021, 43(6): 1086-1095.
doi:
10.7540/j.ynu.20210053
关键词:
印尼语
,
语音合成
,
端到端
,
预训练语言模型
[摘要]
(
)
[引证文献]
(
)
基于深度神经网络并利用大规模高质量“〈文本,音频〉”语料库训练的端到端语音合成系统已能够合成出高质量的语音,因受限于语料库规模,低资源非通用语言端到端语音合成系统性能仍有待提升. 近年来,自然语言处理领域实现了利用海量无标记文本数据以弱监督方式训练语言模型,BERT等预训练的语言模型被证明显著改进了许多自然语言处理任务. 论文基于预训练语言模型探索提升印尼语端到端语音合成系统性能的方法,首先利用上下文信息拼接和词向量拼接方法将BERT预训练词向量信息嵌入语音合成系统,然后在此基础上进一步研究编码器结构对语音合成性能的影响,最后从主观和客观两方面对文中阐述的各种方法所合成的语音进行测评. 实验结果表明,新方法与基线语音合成系统相比,客观评测结果显示系统性能提升近15%,有效降低了合成语音的梅尔倒谱失真和基频帧错误率,主观评价平均意见得分达到4.15,远高于基线系统的3.72.
×
Close
导出文件
文件类别
RIS(可直接使用Endnote编辑器进行编辑)
Bib(可直接使用Latex编辑器进行编辑)
Txt
引用内容
引文——仅导出文章的Citation信息
引文和摘要——导出文章的Citation信息和文章摘要信息
×
Close
引用参考文献格式