【五期李伟平】CCF-A(S&P'20)The Value of Collaboration in Convex Machine Learning with Differential Privacy
联邦学习场景中,在适应度函数平滑、强凸、利普斯特连续的条件下,估算各客户端使用不同隐私预算时最终全局模型的信息损失量。实践中,针对适应度函数是否符合平滑、强凸、利普斯特连续设计了两种算法,如果适应度函数不符合上述条件,则对全局模型的参数进行一种平均化操作。Nan W., et al. “The Value of Collaboration in Convex Machine Learning with Differential Privacy.” 2020 IEEE Symposium on Security and Privacy. 304-317.
本文提出方法能够很好的模拟ML在不同隐私保护参数下的结果,实现在模型训练前对模型结果的估算;使用一种平均化算法实现了本文方法在更一般的ML形式下的适应性。
本文提出的适应度前提条件过强,虽然提出了不符合条件时的平均算法,但平均算法变化了模型参数的计算方式,初始算法不能应对模型参数大小无穷的情况;论文对最大样本损失量的阐述在参数相关的问题缺乏解释。
2023年12月26日