微众银行杨强NeurIPS最新演讲:联邦推荐技术如何应对推荐场景化的发展

雷锋网  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

雷锋网 (公众号:雷锋网) AI开发者按,2019年12月8日至12月14日,微众银行首席人工智能官杨强教授受邀参加于加拿大温哥华举办的人工智能和机器学习领域的国际顶级会议:神经信息处理系统大会(Conference and Workshop on Neural Information Processing Systems,简称NeurIPS)。在微众银行联合谷歌、卡内基梅隆大学举办的联邦学习国际研讨会上,杨强教授以《Federated Recommendation》为主题,分享了微众银行首创的联邦推荐技术的最新研究成果和落地应用。

微众银行杨强NeurIPS最新演讲:联邦推荐技术如何应对推荐场景化的发展   图:微众银行首席人工智能官杨强教授发表演讲

推荐系统应用广泛,已经渗透到人们生活各个方面,例如新闻推荐、视频推荐、商品推荐等。为了实现精准的推荐效果,推荐系统会收集海量用户和所推荐内容的数据,一般而言,收集的数据越多,对用户和推荐内容的了解就越全面和深入,推荐效果越精准。

在现实场景中,随着用户数据安全和隐私保护相关政策相继出台和日益完善,这些数据通常为保护用户数据隐私而以“数据孤岛”的形式分散在不同的机构。因此在“数据孤岛”与“隐私保护”的现实问题中,在合理合法的前提下使用数据持续优化效果提供优质服务,是当前推荐系统所面的巨大挑战和首要任务。

FATE:首个支持联邦学习架构体系的工业级联邦学习开源框架

微众银行在“数据孤岛”和“隐私保护”问题上,是业界的引领者,它提出的联邦学习解决方案能够让多个机构同时协作,通过交换加密的模型参数进行综合训练持续优化模型,以合理合法的方式跨越数据鸿沟,解决“数据孤岛”的问题。微众银行开发的工业级的联邦学习开源框架--FATE(Federated AI Technology Enabler,https://www.fedai.org),作为联邦学习全球首个工业级开源框架,支持联邦学习架构体系,为机器学习、深度学习、迁移学习提供了高性能联邦学习机制,FATE本身还支持多种多方安全计算协议,如同态加密、秘密共享、哈希散列等,具有友好的跨域交互信息管理方案。

联邦推荐:微众银行首次将联邦学习应用于推荐场景

推荐系统中算法的目标是挖掘用户和内容、商品之间的联系,根据问题的特点,微众银行将联邦推荐算法总结成三类,如下图所示,包括横向联邦推荐算法(也可称为基于商品的联邦推荐)、纵向联邦推荐算法(也可称为基于用户的联邦推荐)和迁移联邦推荐。

微众银行杨强NeurIPS最新演讲:联邦推荐技术如何应对推荐场景化的发展  

微众银行杨强NeurIPS最新演讲:联邦推荐技术如何应对推荐场景化的发展  

图:联邦推荐算法分类

纵向联邦推荐(即基于用户的联邦推荐)主要解决参与方(机构)拥有大量相同的用户但是不同的商品或用户特征时如何协作构建推荐系统的问题,例如新闻推荐服务商和视频推荐服务商的联邦,或者推荐服务商和用户数据提供商的联邦。横向联邦推荐(即基于商品的联邦推荐)主要解决在参与方拥有大量相同的商品但是不同用户群体时如何协作构建推荐系统的问题,例如不同地区相同推荐服务之间的联邦。迁移联邦推荐主要解决参与方在相同用户和商品都不多的情况,如何协作分享经验构建推荐系统的问题。

针对不同的分类,基于当前推荐系统最常用的矩阵分解(matrix factorization)和因子分解机(factorization machine)算法,微众银行提出联邦矩阵分解、联邦因子分解机等算法。这些联邦推荐算法基于FATE框架开发,使用统一的优化流程。以纵向联邦推荐的两个场景为例子,杨强教授给大家介绍了纵向联邦矩阵分解和纵向联邦因子分解机的思路和优化方法。

联邦推荐场景一:参与机构为大量相同用户分别提供书籍和电影推荐服务

具有相同观影兴趣的用户很可能有相同的阅读兴趣。因此双方的联邦是非常有必要的,结合双方数据构建的推荐系统在性能上会优于仅仅使用一方数据构建的系统。

微众银行杨强NeurIPS最新演讲:联邦推荐技术如何应对推荐场景化的发展  

图:纵向联邦推荐场景一,多个参与机构为大量相同用户提供不同推荐服务

在这个场景下,以常用的矩阵分解为例子,给出纵向联邦推荐的一个解决方案,我们让两个参与方在机构内部分别进行矩阵分解,将用户在商品上的评分矩阵分解成user profile和item profit的乘积,如下图中的公式所示:

微众银行杨强NeurIPS最新演讲:联邦推荐技术如何应对推荐场景化的发展  

图:纵向联邦矩阵分解示意图

其中user profile由双方共享,为此我们引入一个可信的第三方server来维护共享的user profile,并帮助各方推荐算法的构建 (在这里需要说明的是,在最新的FATE技术中,可信的第三方可以去除,基于加密技术以及多次通讯,双方在安全可靠的方式下进行参数共享)。算法的优化流程如下图所示:

微众银行杨强NeurIPS最新演讲:联邦推荐技术如何应对推荐场景化的发展  

图:纵向联邦矩阵分解优化流程

  • 首先由server初始化user profile并加密,参与方分别初始化自己的item profiles

  • Server将加密的user profile发送给参与方

  • 参与方解密user profile并更新自己的item profile;同时计算user profile的梯度,加密后发送给server

  • Server汇总接收到user profile梯度,在密文状态下更新user profile。

  • 重复步骤2-4,直到收敛

从更新过程,我们可以看出,参与方的数据完全保持在本地,双方仅交换user profile参数,同时server也是在密文环境下操作双方计算出来的user profile梯度,对内容不知情,不存在隐私泄漏风险。最后,双方都有了自己的模型,而且模型是结合双方的数据优势后共同构建。

联邦推荐场景二:参与机构为推荐服务提供方和用户数据提供方

以书籍推荐服务商和用户兴趣数据提供商的联邦为例,书籍推荐服务商对用户了解越深入推荐越精准。数据服务提供商在合理合法的前提下,进一步扩大数据的应用价值。

微众银行杨强NeurIPS最新演讲:联邦推荐技术如何应对推荐场景化的发展  

图:纵向联邦场景二示意图

在有用户特征的场景下,交叉特征对推荐系统效果的提升帮助非常大,例如交叉地区特征和运动兴趣特征,可以给不同地区有不同运动兴趣的用户推荐合适的明星传记。因子分解机(factorization machine)是推荐领域处理特征交叉的较常用算法。在联邦推荐场景下,我们提出联邦因子分解机,如下图所示,在数据不出本地的情况下,同时完成参与方内部的特征交叉和参与方相互之间的特征交叉。

微众银行杨强NeurIPS最新演讲:联邦推荐技术如何应对推荐场景化的发展  

图:纵向联邦因子分解机示意图

联邦因子分解机的优化过程如下图所示,

  • 首先参与方初始化自己的模型

  • 参与方分别计算部分预估结果,部分损失值,部分特征的梯度等中间结果,加密后传送给对方

  • 双方将加密并加入掩码的梯度发送给server

  • Server解密带掩码的梯度汇总后发送给参与方

  • 参与方去除掩码并更新模型

  • 重复步骤2-5,直到模型收敛

   微众银行杨强NeurIPS最新演讲:联邦推荐技术如何应对推荐场景化的发展

图:纵向联邦因子分解机优化流程

经过联合建模,参与方分别得到部分训练好的联邦FM模型,当对新样本进行预测时,需要两方一起完成预测任务

第一步,A、B双方各自完成本身中间结果的计算,加密并传到服务器

第二步,服务器聚合双方中间结果,解密得到预测值

第三步,服务器将预测值发回给A方进行推荐 

推荐系统是数据驱动的,数据对效果的提升有很大帮助。在使用数据的过程中,如何有效的保护隐私和安全是急需解决的问题。微众银行在该方向上做了初步的探索和应用,同时,也在积极推进关于联邦学习国家和国际标准的建立。杨强教授表示,会继续开源工具,与业界共铸联邦学习开放生态。

微众银行杨强NeurIPS最新演讲:联邦推荐技术如何应对推荐场景化的发展

本文被转载1次

首发媒体 雷锋网 | 转发媒体

随意打赏

提交建议
微信扫一扫,分享给好友吧。