【五期邹昱夫】USENIX Security(USENIX Security'18)AttriGuard: A Practical Defense Against Attribute Inference Attacks via Adversarial Machine Learning

"Jia, Jinyuan, and Neil Zhenqiang Gong. "AttriGuard: A practical defense against attribute inference attacks via adversarial machine learning." 27th USENIX Security Symposium (USENIX Security 18). 2018."

  本文提出了AttriGuard,一种针对属性推理攻击的实用防御。针对场景是web和移动应用程序中的用户,攻击者利用机器学习分类器从目标用户的公共数据(例如,评级分数、页面点赞)推断目标用户的私人属性(例如,位置、性取向、政治观点)。通过改进原有的基于Jacobian的逃逸攻击JSMA,找到一个既能使攻击者分类器预测改变又能最小化效用损失的最小噪声。然后随机采样这个最小噪声添加到用户数据中。对逃逸攻击JSMA改进方面有两:首先,结合了噪声类型策略,主要原因是原算法不是为了保护隐私而开发的;其次区别于原算法的整体调整,本文使用动态化调整修改条目。既在原的算法中,所有修改条目要么增加,要么减少。在本文的算法中,一些条目可以增加,而其他条目可以减少
  文章优点:针对博弈论难以优化和基于相关性的防御会大量效用损失情况提出了一种基于对抗神经网络并且实用的防御机制。
  文章缺点:未考虑该防御机制的鲁棒性。当攻击者使用更加强大的分类器时,只能通过更大的噪声进行防御,而更多的噪声也会导致更大的效用损失。

2023年1月20日


posted @ 2023-01-20 16:25  方班隐私保护小组  阅读(57)  评论(0编辑  收藏  举报