【五期梁锐】CCF-A, (TPDS'20)Towards Fair and Privacy-Preserving Federated Deep Models

L. Lyu et al., "Towards Fair and Privacy-Preserving Federated Deep Models," in IEEE Transactions on Parallel and Distributed Systems, vol. 31, no. 11, pp. 2524-2541, 1 Nov. 2020, doi: 10.1109/TPDS.2020.2996273.

  本篇论文从联邦学习公平性的角度着手,指出了目前联邦学习存在的公平问题:贡献程度不同的参与方通过训练最终获得相同全局模型,而这将会影响拥有高质量数据者的参与积极性,从而对于建立健康的联邦学习系统产生消极影响。作者提出一种根据各方贡献来返回参与者不同的全局模型的方案,最终根据各方全局模型准确度来衡量各方贡献大小。文中通过设计本地可信度互评的机制以及三层洋葱式的加密方案来实现所提到的公平性、隐私性、准确性。
  这篇论文通过联邦学习进行协作训练,使用DPGAN生成虚假样本保护隐私,并发放样本给其他参与方,再利用收到的反馈计算本地可信度值以此衡量各方本地数据质量,进而评估各方相对贡献,使用区块链技术进行透明可信的交易记录,并对交易的梯度采用三层洋葱式加密保障隐私,最后根据参与方贡献(独立模型精确度)和奖励(最终模型精确度)的方式进行公平量化,通过将这些方法技术融合,达到公平和隐私保护的目的。
  这篇论文提出了一种除了激励机制外实现联邦学习公平性的方案,通过各方贡献大小来返回不同的全局模型,在设想思路上足够创新,但对于论文方案中提到的技术都只是应用,没有进行创新或适应性的变化 ,此外,该方案也只是做了理论研究,我对于其能否应用部署于现实世界存疑,因为虽然此方案中贡献度最高的参与方能获得近似分布式框架精确度的模型,但其他参与方根据不同贡献度所获得的的模型精度可能远低于此,这时低贡献方为了更好的效益又可能会通过金钱激励等方式来获得一个更好的全局模型,这又回到了相关工作中的激励式实现联邦学习公平性的方案,而且,论文中是在IID环境下对公平性进行量化,而在现实世界中出现更多的 NON-IID下如何进行公平性的量化也是需要解决的问题。

2022年10月29日


posted @ 2022-11-10 18:24  方班隐私保护小组  阅读(79)  评论(0编辑  收藏  举报