旷视科技孙剑:从315的人工智能无故“躺枪”,映射出科普的重要性
每年3.15后都会产生一波波“新闻涟漪”,而今年“ 人工智能 ”有幸被打了假。
那么用这么一次演示就打了假(宣称现在的人脸认证技术不可靠),违反了什么逻辑和科学惯例了呢?
1、启用了“吃土豆能治高血压,我家隔壁老王自从天天吃土豆,血压就下来了”的以点盖面的中医逻辑。目前接入人脸识别和活体检测的商业用户非常多,随便选一家不知道谁家的商业产品来 打假 ,严肃的质疑了技术的可行性和从业者的态度,一棒子打死人工智能。
其实3.15演示的只是对手机端活体检测的破解。实际完善的系统会包含多道安全防护。目前大多健全的商业平台都能杜绝这类“上古时代”的攻击。以旷视科技Face++为代表的技术提供商们都提供了高安全的多道防护手段(例如云端活体技术)。
2、用“一次攻破,你就是不安全的”误导了什么是“安全”这个概念。”安全“是相对于“危险”而言的,没有绝对100%的安全。评测一个技术安全与否,需要在多个典型系统上进行多次重复实验,进而得出一个统计意义上的结论。这说明我们国家的科普事业(这次是概率论和统计方法的基本概念)依旧路漫漫其修远兮。我们的科学家们在用高科技造福大众的同时,还要关注一下我们的科普进展。
在这个国家经济转型的关键时期, 科技创新 、特别是当下的人工智能技术是我们持续发展的核心。希望大家能够给予新技术足够多的重视和包容,让其尽快能够成为政府工作报告中所希望的那样,为 产业升级 提供第一推动力。
建长城难,毁长城易
下文是旷视(Face++)就人脸识别技术的安全性问题为大家进行以下声明和解答:
2017年3·15晚会上,央视在信息安全问题中对人脸识别技术不过关的问题进行了报道。作为一家对用户和市场负责的人脸识别技术和解决方案提供商,旷视(Face++)第一时间就人脸识别技术的安全性问题为大家进行以下声明和解答。
首先,人脸识别技术应用在金融、生活服务等行业场景里,一直都是给安全做加法,与传统的密码结合,提供更加可靠的安全服务。
其次,3.15上所展现的攻击方法实际原理是通过照片模拟及屏幕翻拍来实现的,旷视可以有效杜绝这类攻击。
的确,任何一种安全手段都不是独立的,因此在实际应用中,旷视(Face++)与合作伙伴在给用户提供的服务中,一切从安全与便捷两个角度出发,从没有允许过任何一个场景是简单通过模拟人脸即可通过的。
在与不法分子的斗智斗勇中,技术一直都是需要时时刻刻保持他高一尺我高一丈的心态,而旷视在人脸识别技术上线后也第一时间组建了最为强大的防攻击组,而市面上任何最新的攻击,我们都会第一时间应对并解决,请广大用户放心,在给用户安全体验的承诺上,我们从不放松。
大家不知道的是,对于人脸识别还有更多的攻击手段。在过去的一年里,旷视日均拦截非法交易数百笔,在旷视的黑名单里,不限于央视所演示形式的攻击。基于抵御经验和日常测试,旷视将对活体检测系统进行的攻击大致分为三大类:
1、换脸攻击。通过PS或者图像编辑软件在原有人员的照片/视频上贴一张新的脸,这种属于初级攻击手段,一般的动作检测就可以防住。
2、屏幕翻拍攻击。不管是3·15里面展示的那种用手机对着一个App模拟出来的假脸还是直接用Facetime让本人非现场验证,最终都是一个手机拍摄另一个手机屏幕(或显示器屏幕),而屏幕翻拍在底层视觉特征、环境图像特征等方面均与真人实拍有显著差异。 对此,旷视研发了专门的基于深度学习的屏幕翻拍综合检查技术(包括显示屏纹路检测、检查人脸局部细节是否自然等),从而实现了对此类攻击的隔离。如图:
3、面具及模型攻击。 旷视曾经做过严格的产品级测试,用一张脸模型搭配不同的眼睛,嘴,鼻子来攻击,结果是针对一般面具攻击我们可以做到百分之98以上的隔离。而3D打印以及电影中出现的实际人皮面具,这种级别的犯罪,相信也会引入刑侦手段加以防范。