苹果“口罩版Face ID”年前出街 旧苹果设备为何没法用?

2022年01月29日 15:24 次阅读 稿源:新智元 条评论

虎年新年前,果粉们迎来了春节礼物:新冠时代无数苹果用户呼吁良久的“戴口罩也能用Face ID刷脸”的功能,终于被包括在iOS 15.4的更新里啦。苹果在iOS 15.4的更新中,引入了戴口罩也能使用Face ID的功能。按照各种用户体验图,系统提示中将会说“iPhone可以识别眼部周围区域的特征”但不戴口罩更精确。


戴口罩也能用苹果的Face ID刷脸认证了

新冠大流行席卷全球,“戴口罩出门”成为常态,对许多智能手机用户来说,利用生物特征解锁或“Face ID解锁”变成一大挑战,因为口罩一旦遮住脸部特征,辨识成功率势必下降。

过去有很多网友分享,多输几次密码,可以训练Face ID,让它记住主人戴口罩的样貌。但这么搞至少要花1周到几个月时间,试错从几十到上千次,才能增加脸部辨识的些微成功率。


2020年iOS 13.5更新后,iPhone会检测到试图戴口罩使用Face ID的用户,并立刻提示用户输入密码。

2021年iOS 14.5和watchOS 7.4发布后,苹果增加了戴口罩用户戴Apple Watch时解锁iPhone的功能,这样可以不再需要输入密码来代替。

然而,虽然"用Apple Watch解锁"允许用户在戴口罩时解锁他们的设备,但其他依赖Face ID的功能如Apple Pay和应用内认证却无法工作。

现在,当升级至 iOS 15.4后,用户可以直接在Face ID设定中发现新的口罩选项,点击开启后,戴着口罩的用户重新“扫脸”设定一次Face ID,重新录入一遍面部数据即可。


若用户平常戴眼镜,也有“添加眼镜”的选项,协助用户戴着眼镜和口罩时能更准确地解锁Face ID。用户可以稍后添加眼镜信息。苹果公司允许每台手机注册最多四副眼镜。现在还可以在戴着口罩时验证Apple Pay交易。

据已体验者称,目前来看,解锁速度不受影响。

尽管如此,苹果在设置应用程序中警告说,戴着口罩使用Face ID的安全性较低,生物识别系统在使用全脸识别时仍然"最准确"。要让带口罩的Face ID发挥作用,必须看着设备才能让它解锁,而且戴着墨镜时,它不能发挥作用。


旧苹果设备没法用的原因:芯片还是传感器?

此项功能,现在仅限iPhone 12及更高版本的iPhone用户使用,iPad Pro用户也不能用。

按苹果的说法,为了让Face ID在用户戴口罩时也能起作用,他们开发了新的算法,经过训练可以识别眼睛区域周围的区域来解锁用户的设备。这些新算法新功能得依托“TrueDepth摄像头系统的相关改进”。

这个语焉不详的官方解释让果粉网站与科技媒体要么束口不言、要么猜测纷纷。


现有的最合理猜测集中于两种:要么是新功能必须基于iPhone 12及以上的新芯片,要么就必须基于2021年TrueDepth系统光学器件的新专利。

有关芯片的猜测,Reddit的果粉板块上,有人说得很有道理:“如果全脸扫描识别需要使用一定量的时间、算力等处理资源,然后处理部分脸部扫描识别的还是同等量资源的话,那么算法必定要在识别全脸扫描时忽略的小细节上投入更多算力。”


如此办法自然会对芯片性能有下限要求。而且这有前例:2021年iOS 15推出时,就有多种新功能至少需要手机配备A12芯片。

考虑到先例,“口罩版Face ID”只能用于iPhone 12及以上,很可能是因为改进后的面部识别算法至少要用到苹果A14与A15仿生芯片的性能与算力,而这两款芯片正好是专属于iPhone 12、13,iPad Air第4代与mini第6代的。

还有人从苹果官方解释的字面去理解:要依赖TrueDepth系统的改进,那应该是摄像头、激光衍射系统这些组件上的新动作。

别说,TrueDepth系统还真有过最近才有的专利改进。

2021年1月苹果放风开搞、2021年美国专利局公布的TrueDepth系统新专利,号称能改善Face ID的3D构图功能,将用于现有产品与未来的智能眼镜、混合现实(MR)头套等产品。


具体而言,专利里的新技术着重改善一种弊端:垂直腔面发射激光器 (VCSEL)的过量发热与散热不均,降低给定供能下的激光辐射质量。

苹果的新专利重新配置了光电子器件的结构,通过改变发射器散焦阵列、光学元件、散热结构等器件布局,既提高了激光散焦衍射的功效,又提高了散热功能、降低了热辐射干扰。


Face ID如何起效?

2017年,苹果Face ID技术初现时,工作原理就已被详解过:

先用泛光感应组件照亮用户的脸部,获取2D红外照片。

红外激光生成器射出激光束,通过点阵投影器进行衍射,获得必需的散斑图案。2017年的iPhone X就能投射3万个此类光点。

这些散斑有高度随机性,还会随着距离差异来变换图案。只要在空间内打上这样的结构光,相当于空间已经被细分、每个区域都做了标记。

只要测绘对象进入此空间,用红外镜头把空间的散斑图案记录下来,与之前2D红外照片的基准标定进行对比计算,就能获取到当前物体每个细点与手机的具体景深距离,从而获取物体的形状信息、构建出3D精确模型。


将红外图像和3D模型发送到处理器中,由AI生成数学表达式,与之前注册的面容数据比对后,就会得出识别结果。

此技术带来了在当时无与伦比的含有效信息的图像分辨率,而且能以提高光点数目、创建更精细的3D面部模型提高安全性。

这些计算量在当时必须要用苹果A11芯片的神经生物引擎,通过神经网络技术来进行机器学习和算法优化。才能做到随用户使用更新内部存储的面部识别数据、让识别基准与用户本人面部变化基本同步等等功能。


时移世易,三五年间,当时的尖端技术就落伍到鞋底泥一样,跑不动新功能了。更惨的是,即使到现在,小编还是买不起iPhone……

对文章打分

苹果“口罩版Face ID”年前出街 旧苹果设备为何没法用?

10 (27%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      Top 10

      招聘

      created by ceallan