【论文笔记】A survey on federated learning(综述)
A survey on federated learning
Authors | Chen Zhang, Yu Xie, Hang Bai, Bin Yu, Weihong Li, Yuan Gao |
---|---|
Keywords | Federated learning; Privacy protection; Machine learning |
Abstract | 联邦学习是在一个中央聚合器的协调下多客户协作解决机器学习问题的机制,它允许数据分散训练以确保每个设备的数据隐私。联邦学习基于两个主要思想:本地计算、模型传输,减少了一些由传统的集中式机器学习方法带来的系统性的隐私风险和代价。客户端的原始数据被储存在本地,不能被交换和迁移。随着联邦学习的应用,每个设备在本地训练本地数据,然后上传模型到服务器做聚合,并且最终服务器将模型更新发送给客户以达到学习目标。为了提供一个全面的调查和为该领域后续研究提供便利,我们从五个方面系统介绍联邦学习的现有工作,数据划分、隐私机制、机器学习模型、传输架构、系统异构性。然后,我们挑选出现有挑战及联邦学习未来研究方向。最后,我们总结现有联邦学习的特点,并且分析当下联邦学习的应用。 |
Publication | Knowledge-Based Systems 2021 |
DOI | 10.1016/j.knosys.2021.106775 |
1 Introduction
1.1 联邦学习背景
在人工智能领域,数据是基础,然而数据通常以“数据孤岛”的形式存在。直接的解决方案是用集中方式处理数据。流行的数据处理方法是通过集中采集、统一处理、清洗和建模。在大多数情况下,数据在采集和处理的过程中会被泄露。
随着隐私保护法律法规的完善,收集数据越来越难,怎样合法地解决“数据孤岛”问题吸引了人工智能的许多关注与思考。
为了解决数据孤岛的困境,传统数据统计方法在各种各样的规则面前捉襟见肘。传统的机器学习方法大多使用集中式方法训练模型,训练的数据需要被集中在同一个服务器上。事实上,在隐私保护法律法规面前,集中训练方法已经很难施行。相比于集中训练方法,属于分布式训练方法的联邦学习允许在不同空间地点的用户相互协作去学习模型,并且所有可能包含个人敏感信息的数据可以被保留在本机。联邦学习提供了一种新方法去构建个人模型而不侵犯个人隐私。
随着人工智能芯片组的出现,客户设备的计算资源变得越来越强大。人工智能模型训练也逐渐由中心服务器转向终端设备。联邦学习提供一种可以有效使用终端计算资源训练模型数据的隐私保护机制,可以避免隐私信息在数据传输的过程中被泄露。
联邦学习的主要特点是确保用户隐私,但是它与传统的大数据领域的隐私保护算法相区别(例如差分隐私、K匿名算法)。联邦学习主要通过交换加密处理的参数来保护用户数据,而且攻击者得不到资源数据。这保证了联邦学习将不会泄露用户隐私并且合法。
联邦学习可以分为横向联邦学习、纵向联邦学习和联邦迁移学习。
- 横向联邦学习:适用于“两组数据集的用户特征向量大量重叠,但是用户很少重叠”的情况。
- 纵向联邦学习:适用于“两组数据集的用户特征向量很少重叠,但是用户大量重叠”的情况。
- 联邦迁移学习:适用于“两组数据集用户特征向量和用户都很少重叠”的情况,我们可以采用迁移学习去克服数据与标签的不足。
联邦学习与多方计算、分布式机器学习相似。分布式机器学习有许多类型,包括分布式发布模型结果、分布式存储训练数据、分布式计算任务。分布式机器学习中的参数服务器是加速模型训练的工具之一,数据储存在不同的工作者结点并且通过一个被信任的中心服务器分配资源,以此高效地获取最终训练模型。在联邦学习中,相比分布式机器学习,每个工作者结点是它自己数据的唯一拥有者,每个工作者结点都是模型训练的一个参与者。
联邦学习保护隐私主要体现在用户对本地数据有完全自主权,强调数据拥有者的隐私保护。在联邦学习环境下隐私保护机制有两种主要类型:
- 普通方法:使用加密算法(同态加密、安全聚合)。
- 流行方法:将差分隐私的噪声加入到模型参数中去。
1.2 联邦学习的挑战
- 隐私保护:必须确保联邦学习过程中模型训练不会披漏用户个人信息。
- 数据量不足:在分布式环境下,每个移动设备上的数据量小,另一方面,将数据收集到一起代价很大。因此,联邦学习需要每个设备使用本地数据训练本地模型,接着将所有本地模型上传到服务器聚合成一个全局模型。
- 统计学异构性:在联邦环境中有着大量的边缘设备,这些设备持有的数据可能是非独立同分布的(Non-IID,Non-Independent and Identically Distributed)。例如,在一个智能医疗系统中,不同病的电子医学记录数据的结构是不同的,并且对于训练这些非独立同分布的数据是一个大挑战。
1.3 (本文)主要贡献
- 回顾联邦学习的发展历程。
- 从五个方面介绍联邦学习的现有工作:数据划分、隐私机制、机器学习模型、通信架构、系统异构性。
- 指出当下挑战与未来研究方向。
- 总结现在联邦学习的特点,并分析当下联邦学习的实际应用。
2 相关工作
联邦学习实际上是一种加密的分布式机器学习技术,参与者不用披露源数据就可以构建模型,这样每个公司的自持数据不用离开本地。通过加密机制下的参数交换,建立一个虚拟的共用模型。在这一机制下,各方可以成功对接数据岛,走向共同发展。
2.1 联邦学习中的定义声明
在实际的应用场景下,设\(N\)个用户\(\{ U_1,...U_n \}\)持有他们自己的数据集\(\{ D_1,...D_n \}\),并且不能互相直接访问。如下图所示,联邦学习是通过从分布式设备中手机训练信息来学习一个模型的。它包含了三个基本步骤:
- 服务器发送初始模型给每个设备。
- 设备\(U_i\)不需要分享自己的资源数据,但是可以联邦地用本地数据\(D_i\)训练自己的模型\(W_i\)。
- 服务器将收集来的各个本地模型\(\{ W_1,...W_n \}\)聚合成全局模型\(W'\),并且将全局模型下发更新给每一个用户的本地模型。
随着联邦学习的快速发展,联邦学习模型的效率与准确性越来越接近集中式训练的模型。
2.2 联邦学习的发展
如下的例子描述了联邦学习的工作流程:
假设有一组不同的公司想要协作训练模型,根据GDPR(General Data Protection Regulations,欧盟2018年颁布的关于隐私保护的法规)标准,各方的数据未经用户允许不能够直接合并。另一方面,每个公司可以根据自己的数据训练本地模型。假设各方都建立了一个任务模型,但由于各自的数据有限且不完整,很难训练出理想的机器学习模型。
联邦学习就是去解决这些问题的,在不冲突隐私保护法规的前提下,客户端与服务器之间交换的参数通过加密机制建立一个全局模型。
3 联邦学习的分类
该部分从五个部分总结了联邦学习的分类:数据划分、隐私机制、适用的机器学习模型、通信架构、解决异构性的方法。
3.1 数据划分
根据数据的样本空间与特征向量空间的不同分布模式,联邦学习可以分为三类:
- 横向联邦学习(Horizontal Federated Learning)
- 纵向联邦学习(Vertical Federated Learning)
- 联邦迁移学习(Federated Transfer Learning)
3.1.1 横向联邦学习
横向联邦学习适用于场景:两个数据集的用户特征向量重叠很多,但用户却很少重叠。横向联邦学习是横向地划分数据集(从用户维度),然后拿出用户特征向量相同但是用户不完全相同的那部分数据进行训练。换句话说,不同行的数据有着相同的特征向量(在特征向量维度上对齐)。
因此,横向联邦学习可以增加用户样本容量。例如,在不同区域有两个相同服务的提供者,其用户群来自各自的区域,彼此之间几乎没有重叠。然而,他们的业务非常相似,所以记录的用户特征向量大部分重合。在这方面,我们可以使用横向联邦学习去训练模型,不仅可以增大训练样本的总量,也可以提升模型的准确率。
横向联邦学习中的梯度处理与通信可能会泄露用户的隐私数据。通常的解决办法是进行同态加密、差分隐私和安全聚合,以此来确保横向联邦学习中交换梯度时的安全性。
- 2016年,Google为安卓手机模型更新提出了一个数据联邦模型方案:当一个单个用户使用一台安卓手机时,用户在本地持续更新模型参数并上传参数到安卓云,以至于所有有着相同特征向量维度的数据拥有者可以建立起一个联邦模型。该系统是一个典型的横向联邦学习的应用,它采用了差分隐私和安全聚合的方法。
- Kim等人提出了一个叫BlockFL的横向联邦学习框架,每一个移动设备都使用区块链网络去更新本地模型。
- Smith等人提出了一个叫MOCHA的联邦学习方法去解决多任务中的安全问题,它允许多个站点协同工作以完成任务并确保隐私和安全。多任务联邦学习也改善了原来分布式多任务学习的通信代价,并且提升了原有机制的容错性。
3.1.2 纵向联邦学习
纵向联邦学习适用于场景:两个数据集的用户特征向量很少重叠,但是用户重叠很多。纵向联邦学习纵向地分割数据集(从用户特征向量维度),然后拿出用户相同但是特征向量不完全相同的那部分数据。换句话说,不同列的数据有着相同的用户(在用户维度上对齐)。
因此,纵向联邦学习可以增加训练数据特征向量的维度。例如,现在有两个不同的机构在同一个地方,一个是银行,另一个是电商公司。他们的用户组可能包括了该地区大部分的居民,所以这时两家用户有很大重合。然而,由于银行记录用户的收入与支出行为和信用积分,而电商保存用户的浏览与消费历史记录,二者用户特征向量几乎不重合。纵向联邦学习是在加密状态下聚合这些不同的特征向量以加强模型的性能。现在,基于该联邦系统,许多机器学习模型(逻辑回归模型、树形结构模型和神经网络模型)已经逐渐被证明。
有许多机器学习算法是纵向分割的,例如分类、统计分析、梯度下降、安全线性回归、数据挖掘,纵向联邦学习的数据也是纵向分割的。
- Cheng等人提出一个纵向联邦学习系统叫作SecureBoost,各方联合用户特征向量来一起训练以此改善做决策的准确度,是一个无损的训练方案。
- Hardy等人提出了一个基于纵向联邦学习的带隐私保护的逻辑回归模型。模型使用流水线实体分析与Paillier半同态加密的分布式逻辑回归,可以有效地保护隐私和提升分类器的准确度。
3.1.3 联邦迁移学习
联邦迁移学习适用于场景:两个数据集的用户与用户特征向量都不怎么重合,我们不分割数据,但是可以采用迁移学习去克服数据与标签的不足。
例如,现有两个不同的机构,一个是在中国的电商公司,另一个是在美国的社交软件。由于地理限制,两个机构的用户组鲜有重合,同时由于机构类型不同,用户特征向量也只有小部分重合。在这种情况下,为了高效执行联邦学习,迁移学习被引入以解决小单边数据量和小标签样本以便提升模型有效性。
对迁移学习来说最合适的情况是当你试着去优化一个任务的表现但是没有足够的相关数据投入到训练。例如,对医院放射科来说很难去搜集许多X光扫描影像去构建以一个好的放射诊断系统。同时,迁移学习将会结合其他相关的不同任务(例如图像识别任务)帮助我们去学习一个放射诊断系统。通过联邦迁移学习,我们不仅能够保护数据隐私,也可以将辅助任务的模型迁移到目标的模型学习,解决小数据量的问题。
3.2 隐私机制
迁移学习最重要的特点就是相互协作的客户可以在本地保留它们各自的数据,并且需要分享模型信息来训练目标模型,但是模型依然会泄露一些隐私信息。通常保护联邦隐私的方法是模型聚合、同态加密和差分隐私。
3.2.1 模型聚合
模型聚合是联邦学习最常用的隐私机制,它通过总结各方的模型参数来训练全局模型,来避免在训练过程中传输原始数据。
- Shashi等人基于所建立的激励机制允许多设备参与到联邦训练中。为了高效地获得结果,在参数交换过程中的通信效率优化必须被实时考虑。
- Yu等人展示了基于微调的局部自适应、多任务学习和知识提取来帮助改善参与者的隐私保护和鲁棒联邦模型的准确度。因此,参与者可以从联邦学习中获益并且达到比没有妥协隐私或模型融合的本地模型更好的结果。
- McMahan等人提出了一个基于迭代模型平均的深度联邦学习框架,它可以在每轮更新时通过总结本地模型训练全局模型。
- PATE方法是基于知识聚合的,它从被分离的数据训练的老师模型迁移到属性可以公开的学生模型。PATE结合了用非联邦数据集以黑盒方式训练的多种模型,它保证了训练数据的隐私的准确性。
- Yurochkin等人为神经网络的联邦学习提出了一个贝叶斯非参数框架,它通过匹配本地模型的神经元建立一个全局模型。
- 联邦学习与多任务的结合允许多用户在本地训练不同任务的模型,这也是模型聚合的一个经典方法。
- 联邦学习与区块链相结合去交换和更新每个设备的模型数据,最后在区块链的协议的保证下,模型参数被安全地聚合。
3.2.2 同态加
一般的加密方案关注数据存储安全,对用户来说没有密钥是不可能从加密结果中获取任何有关原始数据的信息的,也不可能对加密数据采取任何运算操作,否则将解密不成功。
然而,同态加密可以解决一般加密数据的计算问题,因为它涉及到数据处理的安全性。同态加密最重要的特点就是用户可以计算和处理加密过后的数据,而在此过程中原始数据不会被泄密。同时,有密钥的用户解密被处理过后的数据得到预期结果。
- 通常在岭回归系统结合同态加密以满足隐私需求,通信和计算的性能也得以提升。
同态加密是联邦学习这块蛋糕上的刨冰。当使用联邦学习时,用户和服务器之间的梯度交换可能会泄露用户的隐私信息,同态加密可以很好解决这个问题,它可以处理加密后的模型而不影响模型的训练结果。
- 使用附加同态来确保模型参数的共享安全,以至于中心服务器不会泄露每个客户的隐私。
- Hardy等人提出了一个联邦逻辑回归模型,它使用附加同态方案去有效地抵抗诚实和好奇的攻击者。
- Liu等人为迁移学习提出一个联邦学习框架,隐私机制同样使用附加同态加密来加密模型参数来保护数据隐私。
- Cheng等人使用实体对齐技术获得共同数据来构建一个叫作SecureBoost的决策树模型,并且同态加密被用于保护模型参数。
3.2.3 差分隐私
差分隐私是一个新的隐私定义,它在2006年被Dwork提出以解决统计数据库中的隐私泄露问题。在这种定义下,数据库的计算结果对一个特定记录的变化不敏感,并且单个记录在不在数据库中对计算结果几乎没有影响。因此,由添加记录所带来的隐私泄露的风险被控制在一个非常小的可接受的范围,并且攻击者不能通过观察计算结果获得准确的个人信息。
在传统机器学习与深度学习的训练过程中,流行的做法是加入噪声到输出来在梯度迭代的过程中应用差分隐私,以便于保护用户隐私。在实践中,拉普拉斯机制与指数机制被常用于实现差分隐私保护。大量研究工作围绕隐私保护与有效性这两方面展开。加入过多噪声不可避免地影响有效性。在隐私保护与有效性之间取得平衡是当下最流行的研究方向。例如,差分隐私可以与模型压缩技术相结合来最大化隐私保护的同时提升模型效果。
差分隐私分为全局差分隐私和本地差分隐私。二者都可以保证一个用户的\(\mathcal{E}\)-差分需求,但是应用场景却截然不同。
- Geyer等人提出一种带差分隐私的联邦学习优化算法,应用于客户端以确保全局差分隐私。
模型本身包含了大量的超参数以确保通信和准确度,噪声的加入将会导致有效性的大损失。
- 在后续的工作中,为了避免盲目地加入不必要的噪声,Thakkar等人设计了一个基于AdaGrad(Adaptive Gradient,自适应梯度算法)的范式修剪方案,以减少噪声对梯度的渗透。
- 在总隐私保护的有效性被限制的情况下,Bhowmick等人设计了一个极小极大最优私有化机制,它可以模拟用户的本地私有保护策略,限制潜在攻击者的能力,并达到比严格本地隐私更好的模型表现。
- Li等人提出了一个新的基于梯度的差分隐私参数迁移算法,应用于非凸联邦语言的建模任务,并效果接近非私有模型。
- Qi等人为新闻推荐设计了一个基于联邦学习的推荐模型。有着本地检查隐私的模型在多用户设备上训练,并且随机选择用户上传本地模型到服务器聚合成新的全局模型。
3.3 适用的机器学习模型
联邦学习正逐渐渗透进那些想要确保隐私与模型效率的机器学习模型。我们主要考虑被联邦学习支持的三种模型:线性模型、树型模型和神经网络。
3.3.1 线性模型
线性模型主要分为三类:线性回归、岭回归和套索回归。
- Du等人提出了在联邦环境下的线性模型的训练,解决了实体解析的安全问题,最终取得了与非隐私方案相同的准确度。
- Nikolaenko等人设计了一个带同态加密和姚氏协议(Yao’s protocol)的岭回归系统,获得了最好的表现。
相比于其他模型,线性模型简单易于实现,并且是实现联邦学习的一个有效模型。
3.3.2 树型模型
联邦学习可以被用于训练单一或多个决策树,例如梯度提升决策树(GBDT)和随机森林。
- Zhao等人第一次在回归与二分类任务中实现了GBDT隐私保护系统。该系统安全地将被不同数据拥有者训练的回归树聚合成一个集合去防止用户隐私泄露。
- Cheng等人提出了一个叫作SecureBoost的框架,它为横向与纵向分割的数据训练梯度提升决策树模型(gradient lifting decision tree model)以建立一个联邦学习系统。
3.3.3 神经网络模型
神经网络模型是人工智能当下流行的一个方向。无人机在许多服务中扮演重要角色,例如轨迹规划、目标识别和目标定位。为了提供更多的高效服务,无人驾驶飞行器(UAV)组经常通过深度学习训练模型,但是由于无人飞行器组之间缺乏持续连接,集中训练模型在无人飞行器中不能够达到实时。
- Zhang等人是第一个在UAV组上实现分布式联邦学习算法、联合功率分配与调度、优化联邦学习的收敛速度的。算法最主要一步是让UAV总结其他UAV训练的本地模型以生成全局飞行器模型,然后通过组内网络分发给剩下的UAV。
- Bonawitz等人基于TensorFlow为移动设备构建了一个可拓展的联邦学习系统,可以训练大量的分布式数据模型。
- Yang等人建立了一个基于数据划分的联邦深度学习框架以在企业中实现优先级应用。
除了企业数据应用,政务大数据中的交通信息经常包含许多用户隐私。
- Liu等人将GRU(Gated Recurrent Unit)神经网络与联邦学习结合起来预测交通流,并提出了一个聚类FedGRU算法。它融合了最优全局模型,更准确地捕捉了交通流数据的时空相关性。实验结果显示该算法比非联邦学习方法表现好多了。
3.4 通信架构
联邦学习的应用场景面临着一些问题,例如用户数据的分布不均,设备算力等问题。随着智能家居和其他设备的发展,还需要在不泄露敏感信息的情况下处理大量非独立同分布数据。根据实际情况选择合适的模型很重要。
在分布式训练中,所有远程设备都可以与中心服务器相通信并参与全局模型的更新。在联邦环境下,本地更新和客户参与的灵活性影响全局模型训练的有效性。
- FedProx模型为分布式训练结合了边缘设备数据,并使用了一个联邦平均模型优化方法去保证目标任务的鲁棒性和稳固性。
- FedAvg(Federated Averaging)是联邦学习最常用的模型优化方法。该方法对本地上传的随机下降梯度数据进行平均,然后对其进行更新并将其分发回本地。在多任务学习中,该方法被证明有很好的表现。
- 为了解决模型更新的通信代价大这一重要问题,Konecny等人通过量化、随机旋转和二次采样的方法对模型数据进行压缩,以降低中央服务器与所有用户之间的通信压力。
- Caldas等人采用有损压缩和联邦dropout减少服务器与设备的通信压力。
- Sattler等人提出了一个稀疏三元压缩协议,比非独立同分布数据的联邦训练的联邦平均算法收敛得还要快。
- 为了保护数据隐私及解决非独立同分布数据的不平衡问题,Yang等人提出了一个新的联邦平均算法,通过计算不同设备的模型权重平均值聚合全局模型。
3.5 解决异构性的方法
在联邦学习的应用场景中,设备的不同将会影响整个训练过程的效率。为了解决系统异构性,有四种方式:异步通信、设备采样、容错机制、模型异构。
3.5.1 异步通信
在传统数据中心设置中,基于平行优化算法有两种常见的方案:同步通信与异步通信。然而,在多样的设备面前,同步设备很容易被干扰,所以在联邦学习多设备环境下,异步通信方案可以更好解决离散设备问题。
- Duchi等人利用数据的稀疏性,研究并行和异步算法,可以更好地解决训练设备的异构性问题。
- 在内存共享系统中,异步方案可以很好解决设备异构性的问题。
尽管异步更新已经在分布式系统中达到很好效益,设备通信的延迟问题放大了设备异构性的缺点。
在联邦学习的过程中,由于实时通信的必要性,异构通信方案是解决系统异构性的第一选择。
3.5.2 采样
在联邦学习中,不是每个设备需要在每轮迭代训练中参与。在一些联邦学习场景下,设备是被选择参与训练的,在另一些场景,设备则需要主动参与训练。
- 在一些工作中,设备被动地参与到联邦学习的过程中。
- Nishio等人提出了一种新协议FedCS,去解决资源受限的客户选择,它在训练过程中加入更多的客户,改善模型表现。
- Kang等人设计了一个基于合同理论的激励机制去激励带有高质量数据的本地设备积极地参与到高效的联邦学习过程中并改善准确率。
- Qi等人设计了一个基于联邦学习的一个新闻推荐模型,也是随机选取用户的本地梯度上传到服务器训练全局模型。
- Wang等人提出了一个带本地补偿的叫作Pulling Reduction的新方法(PRLC),它基于联邦学习达成端到端的通信。PRLC主要思想是在每轮迭代只有部分设备参与到全局模型更新,并且不参与更新的设备通过PRLC在本地更新以减少与全局模型之间的差距。PRLC的收敛率被证明与强凸性和非凸性情况下的非压缩方法一样,并且有更好的拓展性。
3.5.3 容错机制
在不稳定的网络环境下,尤其是在分布式环境下,容错机制可以保护系统免于崩溃。当多个设备一起工作时,一旦其中一个设备宕机,将会影响其他设备。类似的,我们也需要考虑设备在联邦学习环境下的容错性。
- Wang等人提出了一种控制算法决定本地更新与全局参数聚合之间的最佳权衡,来适应设备资源的限制。
- Yu等人通过减少通信改善了分布式随机梯度下降算法的线性加速特点。
- 也有一些工作忽略了设备的直接参与,不影响多任务学习的联邦学习的效率。
- 另一种容忍设备故障的选择是通过代码计算引入算法冗余。
联邦学习中,移动设备上不正确的数据将会导致欺诈。
- Kang等人提出了一种基于可靠员工选择的联邦学习方案,将声誉作为衡量标准,并将区块链作为声誉管理方案,可以有效防止恶意攻击和篡改。
3.5.4 模型异构性
数据是训练模型的基石。当从多方设备收集分布不均匀的数据来训练联邦模型时,会严重影响模型的最终效率。合理地处理来自不同设备的数据对联邦学习至关重要。联邦学习网络主要分为三种模型方法:每个设备拥有自己的模型、训练一个适用于所有设备的总模型、为任务训练相关学习模型。
- Yu等人提出一个只使用正类标签的通用训练框架,即基于 Spreadout 的联邦平均算法(Federated Averaging with Spreadout,FedAwS) ,服务器在每次迭代后加入一个几何正则化子,以促进类在嵌入空间中的分布。
- 然而,在传统训练中,用户也需要负类标签,很好地提升了训练效率并确保了分类任务的准确度。
- Zhao等人通过训练边缘设备之间的小部分数据构建了一个全局模型改善非独立同分布数据的训练准确度。
- Khodak等人在统计学习环境下设计并实现了一个自适应学习方法,改善了小样本学习与联邦学习的表现。
- Eichner等人考虑了全局模型和特定设备之间的快速数据自适应训练,以解决联邦训练期间的数据异构问题。
- Corinzia等人提出了一种称为虚拟的联邦学习算法,该算法将中央服务器和客户机的联邦网络视为贝叶斯网络,并使用近似变分推理在网络上进行训练,在联邦学习真实数据集上表现出最先进的性能。与以前的方法不同,重心偏向于局部或全局模型。
- Liang等人提出了一种局部-全局联合平均(LG-FEDAVG)算法,该算法将局部表示学习与全局模型联合训练相结合。理论分析表明,局部模型和全局模型的结合减少了数据方差,减少了设备方差,提高了模型在处理异构数据时的灵活性。实验表明,LG-FEDAVG可以降低通信成本,处理异构数据,有效地学习模糊保护属性的公平表示。
4 应用
4.1 服务推荐
4.1.1 Google键盘
谷歌在2016年启动了一个项目,在Android移动用户中建立联邦学习,以提高键盘输入预测的质量,同时确保用户的安全和隐私。语言模型的发展也将促进推荐系统的发展。结合联邦学习,它可以扩展到其他推荐应用程序。当用户提出请求时,模型可以快速提供后续建议。
4.1.2 智能医疗诊断系统
由于对患者隐私的保护,收集分散在各个医院的医疗数据变得非常困难。因此,医疗数据成为一种稀缺资源。人工智能的发展给医疗资源配置和疾病诊断带来了革命性的变化。然而,在数据的收集和处理中存在安全挑战,例如患者的私人数据的披露。
- Cohen等人根据患者的隐私需求分析了现有的法律和道德挑战,并讨论了如何在未来更好地利用患者数据而不泄露隐私。
数据量过小和标签不足是医学数据面临的两个问题,现有的联邦迁移学习可以解决这些问题。
- Lee等人使用互联医疗系统来整理健康结果数据和纵向真实数据,并设计和实现了一个基于APOLLO网络的集成多联邦学习网络,将真实世界的数据转换为医学诊断证据,以帮助医生对患者进行前瞻性诊断。
4.2 无线通信
对于无线通信,基于传统模型的早期方法已不再适用于现有的日益复杂的无线网络,深度神经网络的普及也为无线网络模型的建立带来了新的方向。
- Niknam等人将联邦学习的重要功能应用于无线通信领域,如边缘计算和5G网络,并进行了详细分析。然后在标准数据集上进行仿真,以验证联合学习在无线通信领域的可用性和安全性。
- Mohammad等人研究了联邦学习在无线网络和边缘计算中的应用,并借助远程参数服务器通过其各自设备的数据集建立了联邦模型。
- Tran等人设计并实现了基于光波功率的联邦学习模型,这是一种应用于物理层的新方法,通过资源分配来管理网络,以实现最高的传输效率。
- 然而,噪声问题一直很难解决,因此Anget al.提出了一种抗无线通信噪声的鲁棒联邦学习算法。他们将聚合过程和广播过程中的噪声问题简化为基于预期模型和最坏情况模型的并行优化问题。相应的优化问题可以通过SLA(服务级别协议)算法和基于采样的SCA(服务组件体系结构)算法来实现。实验结果表明,该算法在提高预测精度和减少损失方面取得了良好的效果。
通过联邦学习的训练过程,我们不仅可以在不共享自己私有数据的情况下获得良好的全局模型,还可以减少设备的通信负担。
- Nguyen等人将联邦学习应用于智能家居中的无线物联网系统,提高了攻击检测的准确性,提高了通信效率。
- Savazz等人为5G无线网络的联合学习应用提出了一种无服务器学习方法,该方法通过对每个设备进行局部梯度迭代计算和基于一致性的方法共享模型参数。
- Abad等人为无线异构蜂窝网络(HCN)设计了一个分层联邦学习框架,其中采用梯度稀疏和周期平均的方法来提高模型的通信效率。
5 挑战与未来工作
5.1 挑战
下面介绍主要挑战。
5.1.1 隐私保护
在联邦学习中,隐私保护是一个主要问题。联邦学习通过与服务器交换模型梯度而非原始数据来保护每个设备上的私有数据。然而,整个训练过程中的模型沟通也可能会将敏感信息泄露给第三方,例如模型的反向传播。虽然最近有一些方法可以提高数据的保密性,但这些方法都增加了计算的复杂性,增加了联邦网络的计算负担。为了进一步有效地保护私有数据的安全性,我们需要找到新的方法来防止私有数据在模型传输过程中被泄漏。
5.1.2 通信代价
在联邦学习中,通信是一个关键瓶颈。事实上,联邦网络可能由许多设备组成,比如数百万远程移动设备。教育学习模式的训练可能涉及大量的交流。此外,网络中的通信速度无法保证,因此联邦学习的通信成本非常值得考虑。因此,为了使联邦学习实用化,有必要开发具有高通信效率的方法。
5.1.3 系统异构性
由于硬件和网络连接不同,受攻击网络中每个设备的计算和通信能力可能不同。在网络中同时处于活动状态的设备通常只占一小部分。例如,数以百万计的设备有时只能同时连接数百个活动设备。每个设备也可能不可靠,因此这些系统的异构性极大地削弱了容错性的挑战。因此,联邦学习方法必须能够容忍异构硬件,并且必须支持网络中的脱机设备。
5.1.4 不可靠的模型上传
在联邦学习中,移动节点可能会误导服务器,有意或无意地聚合全局模型。对于蓄意行为,攻击者可能会发送恶意的模型参数,以影响全局模型的聚合,从而导致模型训练出错。另一方面,不稳定的移动网络环境可能会导致移动设备的一些非预期行为,例如上传一些低质量的模型,这将对联邦学习产生不利影响。因此,对于联邦学习来说,抵制这种不可靠的本地模型上传是至关重要的。
5.2 未来工作
针对上述挑战,有一些未来工作方向值得研究。
5.2.1 隐私限制
事实上,由于网络中各种设备的异构性,它们的隐私限制有其不同的特点,因此有必要更详细地定义批量设备的隐私限制,以确保特定样本的隐私保证,从而提供强大的隐私。基于特定设备隐私限制的隐私保护方法的开发是未来工作的一个有趣且持续的方向。
5.2.2 通信代价与计算压力之间的权衡
我们可以主要考虑两个方面来提高通信效率:迭代地发送小消息,或减少通信回合总数。例如,我们可以使用模型压缩技术来减少联邦学习中交流的数据量。在减少沟通轮次方面,需要沟通的模型可以根据其重要性进行筛选。我们也可以将这两种方法结合起来,这可以大大降低移动设备和服务器之间的通信成本,但也会增加一些计算压力。找到通信成本和计算压力之间的平衡点是未来工作的主要方向。
5.2.3 多中心联邦学习
异质性的挑战阻碍了联合学习。最近的一些研究表明,如果可以提前获得系统中设备的异质性,则可以根据异质性对所有移动设备进行分组,并且可以为每个组分配一个本地中央服务器。我们可以先聚合一组相似的异构设备模型,然后将它们发送到服务器,聚合成一个全局模型。研究多中心联合学习以解决异构挑战是未来工作的一个有希望的方向。
5.2.4 可靠客户选择
在联邦学习中,移动设备可能会上传不可靠的数据,这可能会导致服务器无法聚合全局模型。因此,在联合学习任务中找到值得信赖和可靠的客户是至关重要的。一些人引入了声誉的概念,作为衡量客户可靠性的指标。因此,我们可以在每一轮模型更新期间选择一个高度可靠的客户端,以确保联合学习的可靠性。基于该方法的可靠联邦学习的改进是未来一个深远的研究方向。
6 总结
随着大数据和人工智能的发展,公众对隐私的要求越来越严格。因此,联邦学习应运而生,这是一种跨平台隐私保护的新解决方案。作为一种可以应用于实际的模式,联邦学习在强调数据隐私和数据安全的今天已经被越来越多的研究人员和企业所接受。一方面,如果用户因为数据不足而无法训练出令人满意的模型,联邦学习可以在不暴露原始数据的情况下聚合多方用户模型并更新集成模型。另一方面,当用户没有足够的数据标签可供学习时,联邦学习不仅可以为他们提供安全的模型共享机制,还可以将模型迁移到特定任务,以解决数据标签不足的问题。本文介绍了联邦学习的基本定义、相关技术和具体分类,讨论了联邦学习的实际应用场景,并指出了联邦学习目前面临的挑战和未来的研究方向。相信在不久的将来,联邦学习可以为更多的应用提供安全、共享的安全服务,促进人工智能的稳定发展。