早在Android 4.0的时候,谷歌就率先在设备上实现了人脸识别,但为何直到苹果推出iPhone X之后,人脸识别才作为一种解锁方式得到广泛普及和推广呢?那么iPhone上的Face ID和Android上的人脸识别有什么区别呢?
Face ID 在1 秒解锁时间内到底能完成什么?
检测接近的物体
当拿起iPhone时,首先工作的是“距离传感器”,它会检测物体是否靠近设备;
检测人脸
“距离传感器”检测到物体靠近后,“洪水传感器”会对前方物体进行扫描,红外镜头接收到信息后传输给神经网络引擎系统进行判断。一步操作;
获取3D人脸信息
然而,“洪水传感器”只能发出简单的红外光,无法记录空间信息。这时,“点阵投影仪”就会发出大功率的红外结构光(结构光一般指条状或点状的特殊光,这种光照射在物体表面凹凸不平的情况下会造成图像失真,从而获得物体的空间深度信息);
结构光接收
人脸识别所用的光线精度要求很高。 “点阵投影仪”不仅需要发射足够的点(超过3万个检测点),还需要防止环境光干扰。因此,红外镜头还配备了“板载滤光片”,除了特定频率的红外光外,其余的都会被拒绝(为了保证传感能力和避免太阳光的干扰,一般选择近红外光)波长800~900 nm附近的红外光);
处理图像信息
手机采集到结构光等信息后,可以通过3D图像处理芯片生成带有空间信息的三维图像。当时记录的信息无法提取到设备外部或传输到云端)进行配对。匹配度满足苹果设定的要求后,设备即可解锁。
Android 设备上的Face ID 和面部识别之间的差异
谷歌很早就注意到了这种技术精湛的手机解锁方式,但直到iPhone X的发布,手机人脸识别才足够成熟且易于使用,而且它与安卓手机的区别也很明显:
安全级别的差距
不难理解,在中国,只有iPhone支持刷脸支付。大多数Android设备上实现的人脸识别只是简单的二维图像信息比对,无法达到金融支付的安全级别。即使对方有主人的照片,双方都有可能解锁设备。
应用场景
由于Android设备上的人脸识别功能大多基于RGB摄像头,因此在弱光条件下(例如夜间)无法正常使用;
方便
由于处理芯片中强大的神经网络引擎,Face ID拥有极强的机器学习能力。即使主人的外表略有变化,例如化妆、戴眼镜甚至口罩,iOS设备仍然能够获得足够的收集点来完成任务。查看。