【五期邹昱夫】CCF-A(USENIX'19)Evaluating Differentially Private Machine Learning in Practice
本文对机器学习不同隐私机制进行评估。评估重点放在梯度扰动机制上,通过成员推理攻击和属性推理攻击来评估多种差分隐私算法的具体隐私损失。"Jayaraman B, Evans D. Evaluating differentially private machine learning in practice[C]//USENIX Security Symposium. 2019."
本文的优点在于实验准备完善。差分隐私用于机器学习等具有挑战性的任务时,必须做出妥协以保持效用。这种效用与隐私的权衡正是文章所关注的重点。因此文章考虑了各种不同条件下差分隐私保护机制的效果,揭示了在其中一些情况下的权衡是难以接受的。
本文的缺点在于没有说明其使用的属性推理攻击的条件设置,对其属性推理攻击的实验结果存疑。
2023年2月10日
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 单线程的Redis速度为什么快?
· 展开说说关于C#中ORM框架的用法!
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· Pantheons:用 TypeScript 打造主流大模型对话的一站式集成库
· SQL Server 2025 AI相关能力初探