爱思助手

苹果发文详细介绍面部识别是如何实现的

  苹果公司本周在其《机器学习期刊》上发布了一篇新文章,详细描述了他们是如何在保持高度隐私的同时实现面部识别功能的。

苹果发文详细介绍面部识别是如何实现的


  苹果在 iOS 10 中开始使用深度学习来识别面部,随着 Vision 框架的发布,开发者现在可以在他们的应用中使用这项技术和其他许多计算机视觉算法。文章中写道:“为了可以保护用户隐私,并在设备上高效运行,我们在开发这个框架时克服了巨大的挑战。”

  此外,苹果还解释了面部识别算法是如何在用户的 iPhone 本地工作的:

  苹果的 iCloud 照片库是一种基于云端的照片和视频存储解决方案。然而,由于苹果对用户隐私的坚定承诺,我们无法将 iCloud 服务器用于计算机视觉计算。所有发送到 iCloud 照片库的照片和视频在被发送到云存储之前都是经过加密的,只能通过在 iCloud 账户注册的设备进行解密。因此,为了给我们的客户带来深度学习的计算机视觉解决方案,我们必须直接解决在 iPhone 上运行深度学习算法所面临的挑战。

  这需要硬件资源在保持效率的同时实现以下几点:

  我们面临着几个挑战。深度学习模式需要作为操作系统的一部分,占用宝贵的 NAND 存储空间。它们还需要加载到 RAM 中,并且需要在 GPU 和/或 CPU 上耗费大量的计算时间。与基于云的服务不同,它们的资源可以单独用于视觉问题,而设备上的计算必须在与其他运行的应用程序共享这些系统资源的同时进行。最后,计算必须足够高效,能够在相当短的时间内处理大型照片库,但不会出现明显的电量消耗或者温度升高。

  苹果在今年夏天推出了《机器学习期刊》,并发表了多篇文章,其中有一篇是关于“Hey Siri”在 iPhone 和 Apple Watch 上的工作原理。