CopyRight©2020-2030 www.poppur.com
苹果在iPhoneX上用TrueDepth传感器实现了Face ID人脸解锁,不过他们对手机3D感测功能的研究并不仅于此。据彭博社消息,苹果正在为手机研发一套后置的3D传感器系统,从而让iPhone变成一款更加成熟的增强现实设备。
目前电子设备获取3D深度信息主要有两种方案:
一种是结构光扫描。苹果TrueDepth传感器采用的也是这个方案,通过发射条纹或者点阵式的结构光,检测反射回来的图像扭曲程度从而获得物体深度信息。
另外一种是通过飞行时间TOF获取深度信息,原理是通过测量光从发射到返回所需要的时间,算出距离从而获取深度信息。据POPPUR了解,苹果后置传感器采用TOF方案来获得环境三维图像的可能性更大。
其实谷歌Tango已经在智能手机上实现后置3D传感器,支持Tango AR的手机配备额外的红外发射和接收模组,配合手机后置摄像头可以得到环境的三维空间信息,另外,微软Kinect也利用了类似模块,检测用户身体动作应用到游戏中去。
苹果在iOS11上已经加入了ARKit功能,用到的硬件模块仅仅是摄像头和惯性传感器,暂时无法实现真正的3D检测——那么直接利用iPhoneX的TrueDepth传感器行不行呢?从目前效果来看,苹果原深感摄像头的使用距离可能是主要限制——在Face ID测试中,手机距离太远并不能完成解锁。另外该模块是为了兼顾Face ID安全性和解锁速度经过特殊优化的(详情《苹果手机Face ID原理解析》),因此直接搬到机身后面的可能性不大。随着人工智能和增强现实等新技术爆发,苹果给iPhone提供更加强大的3D感测还是很有必要的。
上一篇:苹果iOS11.2正式版将引入WebKit,方便网站适配iPhoneX刘海
下一篇:京东iPhoneX碎屏险好吗如何购买?京东碎屏险和支付宝碎屏险哪个好?