揭秘蚂蚁金服数据安全技术:主打差分隐私和可信硬件
语音播放文章内容
由深声科技提供技术支持
你的脸值多少钱?
万万没想到,你的“脸”可能出现在二手买卖平台上。
央视新闻报道,近日,在互联网平台“转转”上以关键词“人脸数据集”搜索相关信息,迅速弹出了这样一件产品。商品名为“人脸相关算法训练数据集”,标价 10 元。打开商品介绍后看到,这个数据集包含五千多张人脸照片。很多还是一个人不同表情的脸部照片。
除非法兜售外,多款 App 还存在着随意收集人脸数据信息的情况。
对此,网友也分化为两种态度,一种较为乐观认为“AI时代下,安全与自由总有一个要失去”;一类则较为恐慌,认为刷脸支付不能完全被信服。
在刷脸支付上用得一向 666 的蚂蚁金服也被隔空喊话。
除了井贤栋出来回答,直接说如果因为他们的原因造成损失,全赔,不设上限。11 月 28 日,在 2019 CIS 网络创新安全大会金融科技专场上,蚂蚁金服高级算法专家薛峰介绍了蚂蚁金服在数据安全和隐私保护方面的做法。
这里也许能探究到蚂蚁金服做出“全赔承诺”的底气。
据薛峰介绍,蚂蚁金服主要用 TED ENGINE 引擎来做数据安全与隐私保护。具体是如何来保护呢,雷锋网将其总结为以下三个方面:
Tag:敏感数据智能打标技术,通过事先打标,分类后识别敏感数据,主要是用NLP、CV、C-ML技术,还有标准化服务。
Enhace:AI安全增强技术,用差分、可信硬件保护数据、模型
Detection:智能威胁识别技术,主要围绕内部威胁、Bot Detection反爬、经典安全问题、AI Attack Detection
1、Tag
Tag一般分为4种类型,分别是文字类、图像类、密钥类和ID类,数据分门别类后,下一步就可以对其进行识别引擎。以图像类为例,首先可以用ResNet、OCR技术识别,然后进行打标,完成敏感数据的识别,识别出来之后为其做标准化服务。其实,核心就是将这类信息变成API、SDK,跟各个业务系统做集成。
2、Enhace
Enhace,其实就是我们经常所说的 AI 安全增强技术。以深度学习为例,深度学习是一个数据驱动的技术,它可以挖掘许多人眼无法识别的模型,一旦模型被泄露,围绕模型中的特征就可以逆推出最原始的那张照片,想想都阔怕,那么蚂蚁金服如何做呢?他们要做的很简单,其实就是介入干扰,那么整个图片识别系统就会出错。
此外,在Enhace这个方向,还有一个叫做PPML的技术,即隐私保护的机器学习技术。值得一提的是, 这在学术圈还是一个比较新的领域,主要有机器学习和安全动画计算、同态加密、机器学习技术和可信 硬件怎样结合、中心式的分布和去中心化训练技术、差分隐私等。
对于蚂蚁金服而言, 差分隐私和可信硬件是蚂蚁金服在数据安全和隐私保护领域重点开发方向。
差分隐私的主要做法是在原始数据集中增加噪声,在不影响统计分析的前提下,防止个人隐私数据泄露。
举个例子,比如说一个数据公司提供了一万个人的年龄数据,如果不加噪声或者差分隐私,那么黑客就可以轻松反推出其他的数据,反之,如果加上噪声或者差分隐私就没有办法反推隐私,进而保护了个人隐私。
那可信硬件又是怎么回事呢?现在很多手机都有指纹识别或者人脸识别,但是指纹识别是需要原始的指纹数据的,厂商是不能把指纹数据上传到云的,所以他们开发了一个硬件区域,通过RAM的协议保护指纹数据,甚至可以把机器学习、深度学习模型放进去,进而保护数据安全。
3、Detection
Detection主要做智能威胁识别技术。主要围绕四个方面,一是内部威胁,就是员工的意识问题,很多数据泄露是员工的意识薄弱最终导致泄露的,比如说敏感数据文件外发了,或者是员工查了一些不该查的东西;第二个是Bot Detection反爬;第三是经典的安全问题;第四个是AI Attack Detection。
此外,对于近期的人脸支付是否存在风险的问题,蚂蚁金服董事长井贤栋也公开回应:支付宝的刷脸支付数据是不会保存在本地的,不会有人接触到这些数据。而且,“数据被编码以后,放在系统里面,数据没有人触及,也不可以回溯到人脸”。这样看来,支付宝刷脸支付安全性还是可以保障的,不过,在数据安全与隐私保护这条路上蚂蚁金服还有很长的路要走。
**
雷锋网 (公众号:雷锋网) 注:11月27~28日,由网络安全新媒体FreeBuf、赛博研究院、上海市信息安全行业协会联合主办的CIS 2019网络安全创新大会在上海宝华万豪酒店落幕。 本次CIS大会以“新纪漫游”为主题,是原FIT互联网安全创新大会的全面升级。
雷锋网年度评选—— 寻找19大行业的最佳AI落地实践
创立于2017年的「AI最佳掘金案例年度榜单」,是业内首个人工智能商业案例评选活动。雷锋网从商用维度出发,寻找人工智能在各个行业的最佳落地实践。
第三届评选已正式启动,关注微信公众号“雷锋网”,回复关键词“榜单”参与报名。详情可咨询微信号:xqxq_xq
。