人脸的特征有一定的不变性和唯一性,人脸识别是在进行身份确认时的一种方式,可以提供一个人的性别、年龄、民族等等相关信息。在人脸识别中展现出来的技术是令人惊异的,但通过计算去识别人脸,却是非常难实现的问题,面临诸多挑战。
这些往往都由于人脸表情复杂,具有多样变化能力,造成人脸特征的显著改变。随年龄改变,人脸皱纹的出现和面部肌肉的松弛使得人脸的结构和纹理都将发生改变。还有人脸特征遮掩,人脸全部、部分遮掩将会造成错误识别。同时,人脸图像畸变,由于光照、视角、摄取角度不同,可能会造成图像的灰度畸变、角度旋转等,这些极大地增大了识别难度。
人脸识别属于3D生物识别,是生物模式识别的研究领域,生物识别验证未来极有可能取代现在的密码验证,所需要的技术,充满挑战性。
越客科技:新科技——刷脸支付逐渐“融入”融生活,刷脸支付代理加盟迎来历史新机遇!
人脸识别 抓取面部 几百个特征点 识别率 达到99.99% 基本不会出错 估计最大的挑战是整容 和老化吧
人脸识别技术应用在提升身份认证便捷度和效率的同时,也给个人隐私和数据保护带来了巨大的挑战。仅在2019年,媒体就报道了多起人脸识别技术使用不当的相关事件:
问题场景一——数据泄露隐患:6月6日,微软公司疑似因隐私保护和授权瑕疵方面的原因删除了曾为全球最大的人脸识别数据库MS Celeb。据悉,MS Celeb数据库于2016年发布,拥有超过1000万张图像以及将近10万人的面部信息,用于培训全球科技公司和军事研究人员的面部识别系统。而在微软删除该数据库前,IBM、松下电气、阿里巴巴、辉达、日立、商汤科技、旷视科技等多个商业组织都曾使用过MS Celeb数据库。
问题场景二——使用必要性存疑:8月21日,瑞典北斯部盖乐夫提市的一所高中因使用面部识别技术来监控学生的出勤情况,被瑞典数据监管机构(The Swedish Data Inspection Authority,DPA)处以20万瑞典克朗(人民币14.8万元)的罚款。这是欧盟的《通用数据保护条例》(General Data Protection Regulation,简称GDPR)生效以来,瑞典数据监管机构公布的首张罚单。瑞典数据监管机构认为,该学校使用面部识别技术来监控学生的出勤情况,事先未向瑞典DPA寻求咨询,在日常环境中对学生进行摄像监控等行为侵犯了学生的隐私,违反了GDPR关于处理敏感生物特征数据的规定。
问题场景三——滥用数据风险:此前,伊利诺伊州的一起集体诉讼案指控脸书公司滥用面部识别数据,并要求赔偿350亿美元,脸书要求美国一家法院驳回此案。10月18日,旧金山第九巡回法院的三名法官组成的小组驳回了脸书的请求。此案涉及700万用户,脸书可能会面临向每个用户赔偿1000至5000美元的罚款,总罚款金额最高可能达到350亿美元。法庭文件说:“脸书的面部识别技术违反了伊利诺伊州的生物特征信息隐私法(BIPA)。违反BIPA的规定实际上损害了用户的隐私,或会对他们的隐私构成实质性的威胁。”
问题场景四——安全隐忧:12月12日,美国人工智能公司Kneron测试团队在荷兰最大的机场史基浦机场用手机屏幕上的一张照片骗过了自助登机终端,再次引起了人们对人脸识别准确性和安全性的关注。此外,该团队还用一个特制的3D面具成功蒙骗了微信和支付宝等人脸识别支付系统。同样引起了人们对人脸识别支付安全性的担忧。
上述事件报道不仅引起了公众的对人脸识别技术应用边界与个人隐私保护的高度关注,也促使业界和监管者对一路高歌猛进的人脸识别应用进行深刻反思。
第一,严重侵犯个人隐私。首先,大部分公共场所在采集人脸信息时并未明确告知,使得被动采集成为常态;其次,在机场、火车站、公园、银行、学校、公司(小区)门禁或考勤等人脸识别的应用中用户几乎完全没有选择权利,只能被动接受;再次,人脸识别技术滥用,隐私安全风险高筑,面相分析、换脸、换装、试妆、测肤质等娱乐小程序,以及刷脸支付售货机等随处可见,毫无边界的人脸识别技术应用,正肆无忌惮地收集着用户的人脸数据及个人隐私。
第二,数据安全保障机制缺失。数据采集、存储与使用等规范缺失,导致数据泄漏风险极高。首先,当前关于人脸识别技术产品生产企业资质、产品的安全标准和市场准入标准,数据的存储资质和时限,以及对已获取数据的使用权限等缺少明确规定。其次,生产企业和提供应用服务的企业在数据存储和使用中缺乏透明度。再次,网络安全生态环境持续恶化,人脸数据库泄漏事件也时有发生。
第三,识别技术有待进一步完善。目前,人脸识别应用还达不到百分之百的准确。尤其是针对不同种族和民族群体识别的错误率差异比较大。例如,麻省理工媒体实验室和微软的一项合作研究曾显示,人脸识别的准确率与肤色高度相关。当被识别的图像中为白人时,正确率超过90%;而对于肤色较深的女性,准确率仅为65%。因此,用于比对的基础数据库不仅需要考虑种族和民族样本平衡性,也需要尽可能确保样本数量的有效性。此外,姿势、装饰(帽子、眼镜、口罩等)和光线等变量均会对识别结果产生影响。
第四,部分不当应用可能导致歧视。现今,人脸识别技术在招聘、交友、婚恋、教育等领域也屡见不鲜。通过对人脸数据的分析,对个体的性格、心理、能力、情商等进行评定,给出相应建议。然而,限于技术水平、原始数据精准度、算法隐含的价值判断,以及数据库样本量的有效性等诸多因素,使得这类应用可能扩大某种偏见,引发歧视。
此外,作为身份验证手段,人脸识别技术存在先天缺陷。相对于指纹、虹膜、声音、声纹、基因等其他用于身份识别的生物信息,人脸暴露度较高,更容易实现被动采集。这也同时意味着人脸信息的数据更容易被窃取,不仅可能侵犯个人隐私,还会带来财产损失,甚至大规模的数据库泄露还会对一个族群或国家带来安全风险。
针对上述问题,有必要对人脸识别技术的无限制推广和扩张及时“刹车”,并尽快采取相应措施防范和规制人脸识别技术的应用。
在回答题主的问题的时候,我觉得应该注意做『科研』和做『产品』之间的区别。论文中汇报的人脸识别技术是属于科研的行列。比如在 LFW 上 99.7%,这种数字的意义更多是让搞研究的那个圈子里面的人更加直观的了解到一些情况,你也知道,通常来说这个准确率是非常高的了,所以我们可以说『人脸识别技术在 上已经很成熟了』,但是一模一样的技术,拿到真实环境下得到的准确率可能只有75%……也许会有些人觉得这是很可笑的,不,请不要笑,这是科研圈里朋友的普遍做法,不是没有苦衷的。
捣腾过 LFW 的朋友其实心里都清楚,这并不是一个很好的数据库。图片都是从网上下载的,人脸的质量也是千差万别,有人说这样才接近真实情况……但实际上距离大部分的实际应用场景还是太远了。
目前评价科研中算法的优劣的唯一方法就是找一个数据集,然后大家一起对比,数据集的不同算法得到的结果也会不同,然而……论文上通常是有报喜不报忧的恶习的,所以常常会有不公平的对比存在,随着越来越多更大的人脸数据集的慢慢增加,对于算法的评价会可能会变得稍微公平一些……即便是这样,论文里所谓的人脸识别技术,跟可用的『产品』之间的差距仍然很大。
这并不是说论文的算法不好,而是『产品』的天性。大部分产品都是针对性的解决一类或几类问题,产品讲究是速度,稳定性,成本,等等,不同的产品通常可以加入不同的先验甚至额外的硬件来提升产品的可用性。这是做『产品』和做『科研』的区别。
举两个容易理解的例子:
某著名手机厂商想开发一个自己的人脸解锁功能,在第一次使用手机的时候,经过一个人脸注册的过程,记录下手机主人的样子,在之后的使用中如果被触发,就进行人脸验证,解锁。这里你如果上来一个几十层网络的卷积网络,这个是不行的……因为速度很重要,内存也重要,如果你一个网络模型一上来就已经几十兆几百兆了,产品经理会疯的。做产品的往往是想在保证用户体验的情况下,使用最少的资源。所以最后的产品可能是……下面是我瞎掰的……检测到人脸,检测五官的基本 landmark,然后通过几何关系约束来缩小识别范围,再用简单的特征比如 LBP,在一个一千张主人人脸的数据库进行验证,验证里可能有各种 trick,并且这个一千张人脸的数据库也是实时更新的,比如当前识别正确了,那么就加入进去,如果识别错了,就把这个数据提取特征作为反例存起来……一个可用的产品总是包含了很多看似没有道理的 trick 的,但是就是这些构成了产品的核心技术。
另外一个例子,做人脸识别,但是是做煤矿工的……请自行脑补一脸煤的辛苦矿工。在这个场景下面,你连人脸检测都没法弄啊……加上光照和脸上煤的干扰,论文上的算法基本上是没办法用的。如果是你,你怎么去做识别?
做一个产品的时候,思路是需要很开阔的。比如人脸的检测实际上是可以通过双目视觉来做的,两个廉价摄像头,简单的算法通过三角化得到一个稀疏的深度图,利用深度信息来做人脸的检测,然后基于眼睛和嘴唇来做识别,眼睛和嘴的识别可以用卷积网络来做,但是真是的产品里面可能还会考虑身高信息,当然,在洞里还需要考虑补光的问题……
说完了这两个例子之后,再回到题主的问题上来吧:
『请问目前业内人脸识别技术的挑战和难点是什么。为什么没有成熟可靠的商业应用。但是论文中已经接近 99.7%了。实践和论文的差距是什么。是不是人脸识别的研究没得搞了。』如果题主这里说的『业内』指的是科研行业,挑战和难点其实都不好说……有些问题是可解决的,有些问题是不可解决的,比如化妆和双胞胎的问题,其实长得像也是很普遍的例子。人脸识别这个行业存在一个由大佬们吹出来的硬伤,就是它在真实环境下总是无法达到 100%的可靠,但是总被吹成是极其可靠……以至于领域外的人瞪大眼睛激动地要往里砸钱要项目上线……所以人脸识别在产业界总会给土老板们带去失望。
稍微有点偏,别回来。
我假设这里的业内并不是『科研界』,而是工业界,产业界,『产品』界,那么有很多地方其实都有成熟应用了,比如海关的过关人脸识别系统,当然人家会加上身份证或者指纹来双重验证,比如人脸识别的门禁系统,这个作为产品已经有了,虽然发生了『司机卖掉赵薇豪宅那个事』,但我还是相信在这个应用场景下,这个产品是可以达到可用的程度的。人脸识别技术最大的一个客户可能就是政府了,这个是让我有些伤感的事情,同时我也觉得这个东西在公安系统里面也是『采购了,但是极少用到,领导来了,我们就演示一下 Demo,真办案了,还是要靠人来筛选一下以防疏漏』。
另外最近那些银行推出一些自动服务机器,里面有人脸识别功能,道理其实跟过海关一样,你需要的是身份证,人脸,密码甚至指纹……即便是把人脸识别关掉了……也是可以正常运作的……我常常好奇,为什么有些公司,不遗余力地去集中做一个产品落地很难的人脸识别技术……并且其做法仍然是按照学术那样,收集大量的数据集,然后交给科研人员,然后搞几个算法,提高准确率,然后把代码交给码农去优化,码农优化完,产品经理觉得仍然没法上线,但是上线压力太大,于是给科研和码农施压,科研人员也烦躁,只能过来给码农施压,码农无处诉苦,开始自我怀疑,失去自信,变得烦躁,更年期早到……
这可能是做科研出身的人,突然跑去做产品的通病。
论文和实践的差别在于数据和方法。针对数据选择方法,是用很多种方法融合,针对不同的情况调试不同的参数,使用不同的 trick,甚至使用外围的硬件辅助,最终的目的是提升产品的综合体验。人脸识别,实际的产品里面,最深奥的算法复杂程度也不会超过那些开源出来的已有算法,理解那些通用的算法,再去一线做产品应该足够了。但是注意,这些算法也许根本不会构成你产品的核心技术,真正的核心技术是你做产品的时候处理各种情况,各种数据的经验公式和方法。
在科研里,人脸识别技术还是有很多可以去研究的东西的,比如怎么用更小的数据更小的模型得到更好的准确率。比如怎么克服光照的影响,比如怎么通过局部特征来完成准确识别……。
但是如果是去做产品的话,我认为不需要迟疑,不要仰望科研成果。贴近一线的数据和场景,花时间分析数据钻研工程方法,也许就做出来了。
人脸识别目前面临的挑战主要分成两个部分:
第一是国内法律法规不完善。
实际上,目前国内针对个人信息的法规并不少。
1. 《民法总则》第111条规定,任何组织和个人需要获取他人个人信息的,应当依法取得并确保信息安全,不得非法收集、使用、加工、传输他人个人信息,不得非法买卖、提供或者公开他人个人信息。2. 《网络安全法》第41条规定,网络运营者收集、使用个人信息,应当遵循合法、正当、必要的原则;第76条规定,个人信息包括但不限于自然人的姓名、出生日期、身份证件号码、个人生物识别信息、住址、电话号码等。3. 于今年10月1日实施的《信息安全技术个人信息安全规范》则规定,在收集个人生物识别信息前,应单独向个人信息主体告知并征得个人信息主体的明示同意;该《规范》同时还对收集人脸识别信息的收集、存储、使用等方面作出了明确的规定。但这个《规范》只是推荐性的标准,没有法律强制约束力。这意味着,现有的法律法规只规范到“个人信息”,但对更细分的“人脸”信息谁能用、如何用没有明确的规定。
备注为“浙江京衡律师事务所高级合伙人李迎春博士律师”的知乎作者对“人脸识别第一案”的结果进行解读时也称,该案的宣判,也是从“合同法”的角度认定“动物世界”违背合同约定的。
第二是市场的逐利性。这不是人脸识别技术本身的问题,而是经济规律使然——变的是武器,不变的是逐利。
在法律不完善的情况下,一旦有商业利益的驱使,人脸识别就很容易滑过隐私侵犯的边界。
比如今年9月人脸识别头部企业旷视科技就曾身陷“交易用户隐私数据”的漩涡。起因是创新工场李开复在一次演讲中称,创新工场曾经帮助旷视从美图、蚂蚁金服(现改为“蚂蚁集团”)拿到大量人脸数据。事后,三方也对这一提法进行回应和澄清,但大众对人脸识别公司为了完善产品或技术而购买、使用隐私数据的关注和担忧却并未停止。
包括前文提到的“人脸识别进课堂”事件中,该人脸识别系统的开发者正是旷视科技。在事件引起大众关注后,旷视发布声明回应称,这是技术场景化概念演示,旷视在教育领域的产品专注于校园安全。
此举背后,不排除有商业压力的推动。彼时旷视已成立7年,落地场景主要集中在安防、金融、物联、零售等行业,但其在商业化上仍面临压力,从财报中仍可见一斑——2019年8月其在港交所提交的招股书中列出过去三年半的经营数据:2016年、2017年、2018年及2019上半年的净亏损分别是3.42亿、7.59亿、33.52亿、52亿[1]。
更进一步,在没有法律约束和商业压力下,如果人脸识别被不法商业机构随意使用、买卖,其后果将是个人安全受到极大威胁,随之带来一连串的社会隐患。
实际上,这种情况是新技术出现时的普遍现象,因为法律很难对新技术的应用做事前的规定。而在不加规范、没有监管的情况下,新技术越自由竞争,越容易被滥用。