摘要: 本系列笔者将对自己的对抗样本学习做一个全面地整理与总结。 定义 对抗样本指的是攻击者故意设计的,被用来输入到机器学习模型里,引发模型出错的值,它就像是让机器在视觉上产生幻觉一样。由于神经网络学习到的那个函数是不连续的,只需要在原始图片上做微小的扰动,就能让处理后的图片以很高的置信度被错误分类,甚至能 阅读全文
posted @ 2019-07-30 15:09 山竹小果 阅读(600) 评论(0) 推荐(0) 编辑