爱思助手

iOS的机器学习存在隐患?大家不要紧张!

  简单来说,Core ML 是苹果在今年的 WWDC 开发者大会上推出的机器学习框架。它能够让开发者以尽可能简单的方式将 AI(人工智能)模型以各种不同的格式,集成到自己的应用中去,让它们实现计算机视觉、自然语言识别、图案识别等高级功能,而开发者本人不需要很多的 AI 相关知识。

iOS的机器学习存在隐患?大家不要紧张!


  为了保证用户的隐私能够得到保护,Core ML 的一切处理都是在本地进行的,这意味着你的数据不会被强制发送至云网络中,被苹果或是其他第三方收集。不过就算是这样,仍然会出现怀疑的声音。

  哥伦比亚大学一位名叫 Suman Jana 的安全隐私研究员近日质疑 Core ML,认为它的存在会导致用户更多的隐私暴露。他表示,大多数机器学习模型都是无法人为解析的,而且很难对它们进行各种极端状况下的测试。所以,App Store 在审核应用时,比起那些不使用 Core ML 的应用,它更难“看穿”Core ML 应用。如果一个通过 Core ML 建立的模型有意或无意去泄露隐私信息,App Store 很难发现将它拦下。

  这位专家举了一个例子:“像是那种照片滤镜或编辑的应用,它会向你请求访问相册的权限。一旦获得许可,如果该应用的开发者不怀好意,那么它就能够利用 Core ML 来探明你照片的内容,并试图提取重要的信息,比如你使用的产品,你喜欢的活动等等。”他认为,即使开发者没有很大的恶意,他也会根据这些信息向你投放对应的广告。

  问题就在于,发生这样的事情,你很难说这锅就应该由 Core ML 来背。在没有 Core ML 的时候,任何第三方应用要访问用户的相册时,也仍然需要请求权限。高明的恶意软件能够说服许多用户开放这些权限。即使没有基于本地的 Core ML,在用户主动开放权限,系统安全实质上变得更脆弱的时候,攻击者能很轻松地利用服务器端的机器学习模型来获取用户信息。这些都不是很新鲜的技术了。

  很重要的一点在于,那些 Core ML 本来就不能直接访问的数据,任何应用也都不能访问。

  在这一点上,一位名叫 Will Strafach 的 iOS 安全专家说得更明白:“Core ML 可能会被滥用,但那也是在应用已经获得完全的照片权限之后的事情。所以如果它们想要窃取你的照片或照片数据,那就意味着你已经同意了这些应用所有的权限请求。”

  换句话说,无论 Core ML 的有无,类似的技术都已经存在,并不是说 Core ML 的出现才会导致类似的隐私信息泄露。很多时候人们的质疑,更多是因为本能的对新技术的不信任。如果说在过去这样的隐患都没有闹出大问题,Core ML 时代也不大可能会因此出事。当然最重要的,还是我们自己要注意那些可疑的迹象。