爱思助手

iOS 13.1 中曝光苹果未来增强现实(AR) 计划

作为传言已久的一个神秘项目,苹果公司的增强现实(AR)眼镜其实隐藏在显眼的地方。透过刚发布的操作系统 iOS 13.1,可以窥见该正在进行的项目的一些新东西。以下是翻译内容:苹果神秘的 AR 项目最近露出了一些蛛丝马迹。最近在 iOS 13 和 13.1 版本中发现的一系列功能和代码似乎明确证实了苹果高管一直拒绝承认的一件事——一款忠实于乔布斯理念的 AR 设备。


事实上,结合苹果过去几年的收购动作和专利申请来看,那些隐藏的功能对于苹果的增强现实梦想的呈现可谓再清晰不过了。


先来说说 StarBoard。今年 9 月初,泄露的 iOS 13 内部版本被发现包含一个提及 StarBoard 的 “readme” 文件,StarBoard 是一个允许开发者在 iPhone 上查看支持立体声的 AR 应用程序的系统。该系统版本还包括一个用来完成这一任务的、名为 StarTester 的应用程序。这是苹果的材料第一次提及立体应用。


不久之后,在硬件发布会当天,苹果发布了最新版本的 macOS 开发环境 Xcode 11。在这套工具中,隐藏着两种不同的头盔的数据文件,代号分别是 “Franc” 和 “Luck”。同一天,iOS 开发者史蒂夫·特劳顿-史密斯(Steve Troughton-Smith)在 iOS 13 的官方 “黄金大师”(golden master)中发现了 StarBoard 框架;他还指出了 “HME”,许多人猜测 HME 代表 “头戴式体验”(head-mounted experience)。(HMD,头戴式显示器,是 VR/AR 头盔的一个通用术语。)


到目前为止,这些信息是前所未有的。苹果在 2017 年首次发布 ARKit,这是让开发者熟悉增强现实,并让他们体验各种可能性的漫长旅程的一个开始。然而,该公司一直小心翼翼地将增强现实定位为一项移动技术,让人们通过 iPhone 或 iPad 来购物或玩乐高积木,甚至体验公共艺术设施。发现这类数据,即使是隐藏在操作系统开发者文件的深处,也显示出苹果一反常态的透明度。


iOS 13.1 中曝光苹果未来增强现实(AR) 计划


那些数据信息意味着苹果在做什么产品呢?不同的人有不同的回答。彭博社和知名分析师郭明錤的报道长期以来一直声称,苹果今年将开始生产 AR 头盔,2020 年正式推出——该款头盔更像是一款外围设备,而不是一体化设备,需要依靠 iPhone 的处理能力。


在深入研究了 iOS 13 之后,特劳顿-史密斯也得出了类似的结论。他在推特上写道:“透过 iOS 13,可以看到苹果的增强现实努力与人们可能预期的大不相同。它指向了一个比自带操作系统的设备被动得多的显示配件。iPhone 似乎将为它处理各种任务;ARKit 充当合成器。”


上周末,另一个开发者让 StarTester 在近日正式放出的 iOS 13.1 上运行,随后苹果将推出被动式显示配件的说法得到了充实。


该开发者还在 iOS 框架中找到了特定的数字,它们指代两款特定头盔代号的视角:Luck 为 58 度,Franc 为 61 度。(第三个代号 Garta 似乎指的是一种测试模式,而不是特定的设备。)


这一切都与苹果计划推出一款小型、轻便的产品的想法相吻合——这款产品更像智能眼镜,而不是像微软不灵便的 Hololens 那样,因而达到了 “可穿戴” 的标准。AR/VR 市场调查公司 VRS 分析师 JC Kuang 表示:“与 Oculus Rift 相比,58 度的视角听起来不算大,但与 52 度的 Nreal Light 混合显示设备相比,它已经相当有竞争力了。当我们谈论架构可能会是什么样子时,这正是我们需要关注的产品类别。”


跟踪增强现实行业的 ARtillery Intelligence 首席分析师马克·博兰(Mark Boland)将这样的产品称为 “通知层”,将其定位为某种入门级的设备——衔接当下的移动 AR 设备和最终可能会取代智能手机的、更加强大的头盔。“我一直对 2020 年的推出时间持怀疑态度,” 他说,“纵观整个行业的基础技术,你就会发现,它还没有准备好打造出既时髦又轻便的产品。” 然而,像 iOS 13 所指向的那样的中间设备似乎可以达到一种平衡,让开发者在需要完全集成到 “镜像世界” 之前有机会形成打造立体声体验的习惯,开发出最佳实践。


苹果最近的一项专利似乎也支持这一观点。该公司在 3 月份提交的《带有传感器的显示系统》(Display System With Sensor) 专利申请于 7 月份公开,该文件描述了一个配套的系统:一个内置和外接传感器的头戴式设备将其输入信息输送到一个 “控制器”,然后 “通过 HMD 渲染图像”。当然,一项专利并不等同于一项产品计划,但它是一个巨大的数据点。


iOS 13.1 中曝光苹果未来增强现实(AR) 计划


如何进化


苹果会如何让智能眼镜变成一个完全成形的空间计算平台——或者说需要多长时间实现——目前还不得而知,但其路线图的要素都隐藏在显眼的地方。JC Kuang 说道,“他们已经构建并充分部署的诸多技术,对于他们实现打造一个周到的 AR HMD 平台的目标至关重要。” 他提到了 iPhone 11 机型可以在人像模式下拍摄宠物照片的消息:“这是一个很好的例子,说明他们所做的一些细微的调整看似与增强现实无关,但如果你是一名开发者,这些微调非常有意义。识别非人类面孔的功能可大大扩展你构建工具和体验的能力。”


苹果近年来进行的两笔收购,也暗示该公司可能会如何实现它的目标。JC Kuang 将目前的 StarBoard 测试模式追溯到 2017 年收购的 Vrvana 公司。当时,Vrvana 的主要产品是一款混合现实头盔——然而,它并没有像 HoloLens 或 Magic Leap One 那样依赖于透明的 “波导” 显示屏,而是使用前置摄像头将视频直接传送给用户。(像 Varjo 这样的公司也是通过这种方式利用 VR 头盔来提供混合现实体验。)


JC Kuang 就 Vrvana 继续说道,“这显然是为了测试目的,但它可能会让我们能够更深入地了解苹果是如何测试 AR 的,它不必为了测试目的而打造几百台支持波导的设备。”


苹果的另一项战略举措是,2018 年收购科罗拉多州公司 Akonia Holographics。此举似乎有两个可能的原因:不只是因为 Akonia Holographics 正在研发的波导显示器,还因为该公司最初的目标是 “全息存储”。全息存储指的是在三维空间中存储和访问数据,而不是在材料的表面 (光存储)。长期以来,一直没有全息存储产品进入市场,但事实证明,该技术对增强现实的长期愿景至关重要。 “最理想的终端用户设备是超轻盈的,且不进行功能运算,不同于我们目前的情况。” JC Kuang 说,“一切都在云端发生。全息存储带来的速度和传输可能是一大关键。”


iOS 13.1 中曝光苹果未来增强现实(AR) 计划


JC Kuang 指出,苹果上周刚公布的另一项专利提出了一种 AR 显示器,它可以通过 Akonia 式的波导系统传输三维图像。在他看来,这证实了该公司正致力于克服当今设备的局限性——尤其是同时专注于虚拟物体和现实世界的物体所带来的视觉疲劳。他表示,“苹果认识到这是一个大问题,并打算解决它。这一点意义重大,比微软据称正在做的更有意义。”


这也表明,虽然 iOS 上的发现指向一款中间设备,但那也可能只是一个开始。苹果正在大力进军服务领域,以抵消 iPhone 收入持续下滑带来的影响;推出像 Arcade 和 TV+ 这样的订阅服务,意味着该公司要向其宣称的每年服务收入超过 500 亿美元的目标迈进。但服务业务并不能解决苹果在 iPhone 问世后没能再造重磅产品的难题——博兰认为 AR 是苹果后 iPhone 计划不可或缺的一部分。


JC Kuang 表示认同。谈到苹果的做法,他指出:“这是非常具有前瞻性的增强现实愿景。他们把它视作一种计算形式,而不是一种显示形式,这一点非常关键。”


图文来自 cnBeta,如有侵权请联系删除。