苹果iOS 12新增“眼球追踪”功能,开发者脑洞大开
- 06 月 11 日
- IT之家
- 7359
众所周知,由于采用了能够采集3D深度信息的结构光设计,苹果为iPhone X添加了不少新的玩法,各种围绕面部的识别方案也成为很多人关注的话题。除了最常见的人脸解锁外,动态Animoji表情也衍生出很多鬼畜的表情和短视频,就连苹果自己也尝试用这些头像制作过几期宣传广告,比如像这样的:
在 iOS 12 里,苹果进一步增强了Animoji的识别范围,这次连“吐舌头”的动作都可以完美还原到定制头像上了。
但3D结构光的潜力显然远不止这些,基于新的ARkit 2.0,脑洞大开的开发者们又想出了一个新玩法——用双眼来代替手指,直接“操作”iPhone。
名为Matt Moss的学生开发者最近在自己的Twitter上展示了一个测试视频,从视频中我们可以看到,iPhone X屏幕中出现了一个光标,而这个光标的“移动”操作则是完全由眼球控制的,此外只要开发者眨一下眼睛,光标也会判定为是“点击”,随即便会进入到新的菜单页面。
根据Mashable的报道称,这个所谓的“眼球追踪”功能是苹果在ARkit 2.0中新加入的功能:“最初我只是想做个Demo来试试看这个功能的可操作性。”
但很显然,配合3D结构光更为精准的识别,现在眼球追踪的准确度已经远比前几年那种鸡肋的表现要出色得多。同时这也意味着,现在手机摄像头不仅能用来自拍,同时也能准确判断出你的注意力在屏幕的哪个位置,这也为定制广告和应用服务提供了更丰富的想象空间。
但如果谈论的交互上的实用性,我想大部分人还是更愿意用手指来戳屏幕,为什么呢?
之所以会这么说,或许和三星Galaxy系列曾经“翻过的车”有关。早在Galaxy S4时代,三星就在手机中加入了一系列眼部和头部控制的功能:如果手机检测到你的视线离开屏幕,正在播放的视频就会自动暂停,此外还可以根据你的头部倾斜角度来滚动屏幕等。
这功能当时起初听上去感觉还是挺酷炫的,但实际用起来可能就成了下面这个样子:
所以,为了你的颈椎考虑,如果你真的打算靠“动动眼珠子”来取代双手,我觉得还是尽早打消这个念头吧。反而是对行动不便的残障人士来说,眼球追踪技术更能展现出它应有的价值和意义。
具体的案例微软已经给出来了,如今Windows 10系统便自带了用眼球“操作”电脑的“Eye Control”特性,可以让身体不便的人实现用眼睛来“打字”。
回到苹果这项隐藏的小功能上,值得注意的是,苹果在去年专门收购了一家专注于VR头盔和AR眼镜视觉追踪技术的德国企业 SensoMotoric Istruments,此举也被业内认为是苹果在为神秘的AR设备做技术积累。加上还有一系列手势和眼球追踪专利,说不定在未来苹果的虚拟现实产品中,我们也能看到一些意想不到的新玩法。