爱思助手

苹果发布博文:解释 HomePod 如何精确识别用户指令

在苹果机器学习博客的最新一篇文章当中,苹果音频软件工程团队解释了智能扬声器语音检测遇到的挑战,以及如何使用在 HomePod A8 芯片上运行的机器学习模型来帮助提高远场精度。

苹果发布博文:解释 HomePod 如何精确识别用户指令


HomePod 必须能够在播放嘈杂的音乐时保持识别精度,即使用户在离它很远的地方说话并发布命令,它也能够精确地进行识别,并将用户的指令与房间内其他的声音区别隔离开来,例如电视或者其它电器的嘈杂声音。


同以往一样,这篇博文的目标读者是其他工程师和科学家,在这篇文章当中,使用了非常专业的语言。其中的要点是 HomePod 使用自定义多通道过滤来消除回声和背景噪音,而非监督学习模型则只关注当房间里有多人说话时说“嘿,Siri”的人。


在这篇文章当中,运用了很多数学公式来解释这个系统的的机制,以及他们成功测试的结果。苹果公司表示,多通道声音处理器只使用了 HomePod 内部的 A8 芯片不到 15% 的单核性能,这一点尤为重要,因为该团队一直在优化能源效率。


图文来自威锋网,如有侵权请联系删除。