【五期邹昱夫】CCF-A(USENIX'19)Evaluating Differentially Private Machine Learning in Practice

"Jayaraman B, Evans D. Evaluating differentially private machine learning in practice[C]//USENIX Security Symposium. 2019."

  本文对机器学习不同隐私机制进行评估。评估重点放在梯度扰动机制上,通过成员推理攻击和属性推理攻击来评估多种差分隐私算法的具体隐私损失。
  本文的优点在于实验准备完善。差分隐私用于机器学习等具有挑战性的任务时,必须做出妥协以保持效用。这种效用与隐私的权衡正是文章所关注的重点。因此文章考虑了各种不同条件下差分隐私保护机制的效果,揭示了在其中一些情况下的权衡是难以接受的。
  本文的缺点在于没有说明其使用的属性推理攻击的条件设置,对其属性推理攻击的实验结果存疑。

2023年2月10日


posted @   方班隐私保护小组  阅读(41)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 单线程的Redis速度为什么快?
· 展开说说关于C#中ORM框架的用法!
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· Pantheons:用 TypeScript 打造主流大模型对话的一站式集成库
· SQL Server 2025 AI相关能力初探
点击右上角即可分享
微信分享提示