2018年10月31日

摘要: 1、对语音识别的对抗攻击 2、对抗样本细分方向: 如何找到一个更好的攻击方法,此方法不见得有多么鲁棒,但是一定要幅值最小。 因此需要找到一个幅值最小,能够跨越分类边界的样本。 3、防守方:如何证明鲁棒性,能不能证明在自然的某个范围内是肯定不会受到攻击的 4、如何将对抗样本和模型可解释性联系起来。 5 阅读全文
posted @ 2018-10-31 16:59 Josie_chen 阅读(133) 评论(0) 推荐(0) 编辑
摘要: 参考自: https://blog.csdn.net/qq_16234613/article/details/79679393 定义 深度模型具有良好的泛化能力同时,也具有极高脆弱性。以分类为例:只需要通过故意添加细微的干扰所形成的输入样本(对抗样本),模型以高置信度给出了一个错误的输出。 当然这问 阅读全文
posted @ 2018-10-31 16:31 Josie_chen 阅读(1077) 评论(0) 推荐(0) 编辑
摘要: 视频连接:http://www.mooc.ai/course/383/learn#lesson/2163 论文总结:http://ai.yanxishe.com/page/blogDetail/5357 对抗样本的攻防: 什么是对抗样本 adversarial examples 什么是对抗样本 ad 阅读全文
posted @ 2018-10-31 11:02 Josie_chen 阅读(1510) 评论(0) 推荐(0) 编辑

导航