【三期林思昕】CCF-B(Information Sciences'20)A training-integrity privacy-preserving federated learning scheme with trusted execution environment

Chen, Yu, et al. "A training-integrity privacy-preserving federated learning scheme with trusted execution environment." Information Sciences 522 (2020): 69-79.——CCF-B(Information Sciences)

  智能设备上存储数据能力的提高,意味着更敏感的数据变得越来越多。Google,Facebook和Apple等公司利用这些数据大规模部署深度学习,训练出一系列模型来作为新服务和程序的基础。
  但由于这些数据涉及了用户隐私、法律条款、所有权等问题,所以大规模的深度学习存在风险和难度。所以为了解决这一问题,本文设计了一种协作深度学习的联邦学习方案,并提供了一个在受信任执行环境(TEE)下,确保各个参与方都正确执行的算法。
  详细来说,就是设置公共超参数,强制每个不诚实的参与者在本地运行标准的SGD算法,算法仅将参与者的数据集和当前的局部模型作为输入,这就保证了公共超参数不会被纂改。同时在每次迭代中,TEE生成永久密钥对嵌入,并异步地将梯度加载到聚合服务器进行更新。
  该方案虽然解决了存在不诚实参与方训练模型的情况,但并没有考虑具体应用上成本的费用,另一方面也忽略了随着迭代次数,参数和密钥对的不断嵌入会给聚合器带来压力的问题。

2020年11月13日


posted @ 2020-11-13 14:12  方班隐私保护小组  阅读(29)  评论(0编辑  收藏  举报