爱思助手

有对比才有伤害:Siri的声音确实更好听了

  iOS 11 中苹果利用机器学习和人工智能技术,调整了 Siri 说话时的语调,音调,重音和节奏,给我们带来了更加自然、更富表现力的合成音。此前苹果在机器学习博客里分享了 3 篇新文章,介绍了这些年苹果如何完善Siri的技术,还涉及 iOS 11 中 Siri 语音助手的深度学习。


有对比才有伤害:Siri的声音确实更好听了


  在文章的最后,苹果还提供了 Siri 在 iOS 9、iOS 10 和 iOS 11 中的声音样本,以便用户更加直观地感觉这几年里Siri的声音到底出现了什么样的变化。

  看过这段
视频,听过Siri说话之后,你应该也感受到了,从 iOS 9 到 iOS 10,Siri 说话各方面的差别不明显,可是从 iOS 10 到 iOS 11,明显就能感觉到两者的区别,在句子和语调变化上,iOS 11 Siri 听起来更加自然,也更加舒服,不是吗?

  除了要捕捉好几个小时的高质量音频,将其分割拼凑制作成声音应答系统之外,开发者还需要解决如何把韵律(口语中重音和语调的模式)调整准确的问题。再加上,这些过程对处理器性能有一定的要求,所以把声音串联在一起这种非常直接的处理办法对于一台手机来说,实在是有点“强机所难”了。

  这时候苹果工程师就需要借助机器学习的力量了。只要有了足够的训练数据,它就能够帮助文本转语音系统了解如何选择一段音频中的某个部分来进行匹配,从而获得自然的声音应答效果。

  苹果在文章中写道:为了 iOS 11,我们选择了一个新的女性声音,目的就是要让 Siri 的声音变得更加自然、更有个性,更具表现力。我们从几百名候选人中选出了最好的那一个。然后进行 20 多个小时的语音录音,使用基于新深度学习的 TTS(文本到语言)技术来建立新的 TTS 声音。所以新的 Siri 美音听起来比以前的要好。

  你认为从 iOS 10 到 iOS 11,Siri 的声音是不是变化很大?听起来更自然更舒服了有木有?