论文笔记:《机器学习安全性问题及其防御技术研究综述》
论文笔记:《机器学习安全性问题及其防御技术研究综述》
作者:
李 盼,赵文涛,刘 强,崔建京,殷建平
国防科技大学 计算机学院,长沙 410073
发表刊物:
ISSN 1673-9418 CODEN JKYTA8 E-mail: fcst@vip.163.com
Journal of Frontiers of Computer Science and Technology http://www.ceaj.org
1673-9418/2000/00(00)-0000-00 Tel: +86-10-89056056
doi: 10.3778/j.issn.1673-9418.1708038
内容概要:
主要解决问题:介绍了在机器学习的训练阶段和测试/推理阶段中出现的、基于对抗样本的投毒、逃逸、模仿、逆向等攻击和隐私泄露等问题,归纳了针对机器学习的敌手模型及其安全评估机制,总结了训练过程和测试过程中的若干防御技术和隐私保护技术,最后展望了下一步机器学习安全研究的发展趋势。
l 总结了当前针对机器学习敌手模型和安全性问题的分类方法,并从机器学习的两个重要阶段:训练和测试/推理阶段具体介绍了当前机器学习面临的安全威胁;
l 归纳了已有的对机器学习算法进行安全评估的框架以及应对安全问题的防御技术和隐私保护技术;
l 对机器学习安全威胁和防御技术的下一步研究进行了展望。
- 针对机器学习的新型安全威胁将不断涌现。
- 敌手环境中机器学习系统安全评估成为一个新的研究热点。
- 隐私保护的机器学习方法是提升学习模型安全性的重要途径。
- 安全的深度学习模型是机器学习安全性问题研究中的一个新增长点。
- 在新型机器学习算法设计过程中,安全性、泛化性能和算法开销需要综合考虑、联合优化。
欢迎关注我的微博:@机器学习日记
https://weibo.com/6382778167/profile?rightmod=1&wvr=6&mod=personinfo