邯郸论文组

视频 | 谷歌新一代WaveNet :深度学习怎么生成语音?

AI科技评论2019-06-11 16:52:56

AI 科技评论按:这里是雷锋字幕组编译的 Two minutes paper 专栏,每周带大家用碎片时间阅览前沿技术,了解 AI 领域的最新研究成果。

原标题:NATURAL TTS SYNTHESIS BY CONDITIONING WAVENET ON MEL SPECTROGRAM PREDICTIONS 

翻译 | 张锋凯    整理 | 凡江  林尤添


在往期的 2 分钟论文栏目中,我们有谈过 Google 的 WaveNet(一个基于学习型的文本到语音引擎),也就是说,只要我们给予已经训练好的模型一些朗读的素材,引擎就会尽可能生成一个较真实的声音。而在本期视频中,我们将介绍一个新的产品,它在原有的基础上进行改进,让合成语音臻于完美。

图片来源:WaveNet: A Generative Model for Raw Audio

点开本期视频后,你会听到,合成的语音在韵律,重读,和语调上都非常出色,以至于我们真假难辨。相关的音频信息可以在这里找到:

https://google.github.io/tacotron/publications/tacotron2/index.html

在原先 Google 的 WaveNet 论文中,我们为了解决语音合成难题,创造了扩张卷积,这个网络结构跳跃性地输入数据,由此使我们我们有了更好的全局视野。这有点像增加我们眼睛的感受野,让我们能够感受整个景观,而不是照片中只有树的狭窄的视角。

新框架利用梅尔声谱作为 WaveNet 的输入,这种声谱是一种基于人类感知的中间媒介,它不仅记录了不同的单词如何发音,而且还记录了预期的音量和语调。

新模型接受了大约 24 小时的语音数据训练,当然,模型都是要经过某种程度的检验才合格。

我们对其的检验方法是记录以前算法的平均意见分(用来描述声音样本和人类真实声音的比分)。我们的新算法大获成功,之后通过用户研究更加接地气的检验,让用户进行盲测,猜测听到的声音是合成的还是真实的。

的确不可思议,因为大部分的测试结果都是——人们真假莫辨。

请注意,生成这些波形不是实时的,而且还需要很长时间。为了有更好的效率,DeepMind 的科学家撰写了一篇轰动的论文,把 WaveNe 的波形生成速度提升了上千倍。当然,新发明也会带来新挑战——这可能导致录音更容易被伪造,而录音将被削弱作为物证的可信性,除非我们找到一种新的检验方法,例如在录音上加入数字签名。

论文原址:

https://arxiv.org/pdf/1712.05884.pdf

更多文章,关注 AI 科技评论。

添加雷锋字幕组微信号(leiphonefansub)为好友,备注「我要加入」,To be a  AI  Volunteer !

—————  AI 科技评论招人了  —————


—————  给爱学习的你的福利  —————

三大模块,五大应用,手把手快速入门NLP

海外博士讲师,丰富项目经验

算法+实践,搭配典型行业应用

随到随学,专业社群,讲师在线答疑

点击阅读原文或扫码了解详情

————————————————————