【五期邹昱夫】CCF-A(SP'23)3DFed: Adaptive and Extensible Framework for Covert Backdoor Attack in Federated Learning

"Li, Haoyang, et al. "3DFed: Adaptive and Extensible Framework for Covert Backdoor Attack in Federated Learning." 2023 IEEE Symposium on Security and Privacy (SP). IEEE, 2023."

  本文提出了一种联邦学习场景下的后门攻击方法,对后门模型添加针对性的扰动,使其越过联邦学习后门防御。首先检测模型更新时不容易变化的神经元,对其添加扰动,监测后门攻击效果以便及时改进。其次,在全连接层添加扰动,再通过精心设计的loss函数进行约束,将后门模型伪装成良性模型。最后,上传和良性模型偏差更大的诱饵模型,欺骗防御机制将真正的后门模型错误判断为良性模型。
  本文的优点在于实验全面,考虑了目前大部分的联邦学习后门防御方法,并且对后门模型扰动和约束部分讲解的很清楚,还举例说明了为何能够越过防御方法。
  本文的缺点在于调整攻击的神经元监测点目前只能在FedAvg这种联邦聚合方法上有效。其次,本文为了越过L2范式的剪枝,提出使用和原数据更接近的样本表示作为后门,但是这也会导致后门更容易被发现。

2023年8月29日


posted @ 2023-08-29 20:57  方班隐私保护小组  阅读(286)  评论(0编辑  收藏  举报