【五期邹昱夫】CCF-A(USENIX'19)Evaluating Differentially Private Machine Learning in Practice
本文对机器学习不同隐私机制进行评估。评估重点放在梯度扰动机制上,通过成员推理攻击和属性推理攻击来评估多种差分隐私算法的具体隐私损失。"Jayaraman B, Evans D. Evaluating differentially private machine learning in practice[C]//USENIX Security Symposium. 2019."
本文的优点在于实验准备完善。差分隐私用于机器学习等具有挑战性的任务时,必须做出妥协以保持效用。这种效用与隐私的权衡正是文章所关注的重点。因此文章考虑了各种不同条件下差分隐私保护机制的效果,揭示了在其中一些情况下的权衡是难以接受的。
本文的缺点在于没有说明其使用的属性推理攻击的条件设置,对其属性推理攻击的实验结果存疑。
2023年2月10日