【五期邵润东】CCF-A(TITF'20) VerifyNet: Secure and Verifiable Federated Learning
这篇论文主要针对如何在联邦学习的深度神经网络训练过程中保护用户的数据隐私的问题,以及如何验证服务器返回数据的完整性问题。文章首先设计了一种基于同态哈希函数和伪随机技术的可验证方法来支持每个用户的可验证性。然后,使用一种改进的秘密共享技术和密钥协商技术来保护用户的局部梯度隐私,并处理用户在训练过程中退出的问题。在现实数据上进行的广泛实验也证明了文章所提出的方案的实际性能。Xu, Guowen, et al. "Verifynet: Secure and verifiable federated learning." IEEE Transactions on Information Forensics and Security 15 (2019): 911-926.
这篇文章主要有四个优点,一是作者提出的VerifyNet方法是第一个支持在训练神经网络过程中进行验证的隐私保护方法;二是采用了伪随机函数和同态哈希实现了服务器返回结果的可验证性;三是设计了一个双掩码协议保证了用户本地梯度的保密性;四是借助Shamir沙密尔秘密共享协议将必要的秘密信息进行分发,来保证部分用户掉线后梯度数据仍可恢复。作者认为恶意服务器不可能通过伪造证明来欺骗用户,除非它能解决文章提出的模型中所采用的NP-Hard问题。
由于对局部梯度的隐私保护在客户端,对服务器返回的聚合梯度的完整性验证也在客户端,所以验证方法和隐私保护协议需要占用客户端的很大一部分开销,作者也将减少整个协议的通信开销作为未来研究工作的一部分。
2022年11月19日