【三期操志强】CCF-C(AISTATS'20)How to backdoor federated learning.

E. Bagdasaryan, A. Veit, Y. Hua, D. Estrin, & V. Shmatikov, “How to backdoor federated learning,” in International Conference on Artificial Intelligence and Statistics, PMLR, pp. 2938-2948, 2020.——CCF-C(AISTATS)

  近年来,联邦学习作为一种新的深度学习的方式,而广受学者研究。简单来说,就是多个客户端共同参与训练一个全局模型,而无需上传私人数据。但联邦学习不能确保每个客户端都不是恶意得,而且安全聚合使得任何人无法检查模型的更新情况,这就使得联邦学习很容易收到后门攻击。
  本文基于此设计了一种新的模型替换技术,使得恶意参与者能将后门函数引入全局模型,从而达成后门攻击。本文将此方法分别应用在图像分类和单词预测的场景中,并和传统的数据投毒进行比较,证明了该方法的有效性。
  现代的深度学习模型的能力过剩了,我们除了关注它是否完成学习任务之外,还应关注它学到了什么别的,往往这些额外的容量能用来泄露训练数据或者引入秘密的后门函数。因此,如何使得联邦学习保持鲁棒性是未来研究的重要方向。

2020年11月20日


posted @ 2020-11-20 08:29  方班隐私保护小组  阅读(51)  评论(0编辑  收藏  举报