【三期操志强】CCF-C(AISTATS'20)How to backdoor federated learning.
近年来,联邦学习作为一种新的深度学习的方式,而广受学者研究。简单来说,就是多个客户端共同参与训练一个全局模型,而无需上传私人数据。但联邦学习不能确保每个客户端都不是恶意得,而且安全聚合使得任何人无法检查模型的更新情况,这就使得联邦学习很容易收到后门攻击。E. Bagdasaryan, A. Veit, Y. Hua, D. Estrin, & V. Shmatikov, “How to backdoor federated learning,” in International Conference on Artificial Intelligence and Statistics, PMLR, pp. 2938-2948, 2020.——CCF-C(AISTATS)
本文基于此设计了一种新的模型替换技术,使得恶意参与者能将后门函数引入全局模型,从而达成后门攻击。本文将此方法分别应用在图像分类和单词预测的场景中,并和传统的数据投毒进行比较,证明了该方法的有效性。
现代的深度学习模型的能力过剩了,我们除了关注它是否完成学习任务之外,还应关注它学到了什么别的,往往这些额外的容量能用来泄露训练数据或者引入秘密的后门函数。因此,如何使得联邦学习保持鲁棒性是未来研究的重要方向。
2020年11月20日