ARKit20支持iPhoneX前置结构光摄像头眼动追踪
ARKit2.0支持iPhoneX前置结构光摄像头眼动追踪
![](/static-img/ir_FlRnFsJuR4nEdhfY-Kg7zNBzeSZZYKSnZKM7etd_jDfK8d_q_O1HaRj6DdcCM.jpg)
在ARKit 2.0发布之后不久,不少开发者发现了新版本ARKit对利用iPhone X前置结构光摄像头进行眼动追踪的支持。
类似的功能我们在过去也见识过(不会写程序怎么当好艺术家?跳出iPhone X屏幕的3D立体视觉效果)
该艺术效果的开发者就是利用了前置景深摄像头获取眼球位置,根据位置实时改变动画呈现角度。
但严格意义来说,这并不算是眼动追踪,只是对眼球位置的识别,换言之如果头部和手机的相对位置不改变,眼球转动时画面不发生变化。
而ARKit 2下眼动追踪的效果效果就非常惊艳了,转动眼睛,屏幕中的十字游标便会随着注视点的移动而移动,响应速度和精确度都很不错。
通过眨眼睛(忍不住想眨眼了怎么办,会不会误触)完成点击选择,操纵手机全程不需要动手,在很多场景中可以说是非常方便了。得益于红外方案,即便是在黑暗中也能实现眼动追踪。