摘要: 目前,在对抗攻击防御上存在三个主要方向: 1)在学习过程中修改训练过程或者修改的输入样本。 2)修改网络,比如:添加更多层/子网络、改变损失/激活函数等。 3)当分类未见过的样本时,用外部模型作为附加网络。 第一个方法没有直接处理学习模型。另一方面,另外两个分类是更加关心神经网络本身的。 这些方法可 阅读全文
posted @ 2019-07-31 20:01 山竹小果 阅读(4742) 评论(0) 推荐(3) 编辑
摘要: 1 Box-constrained L-BFGS Szegedy[22] 等人首次证明了可以通过对图像添加小量的人类察觉不到的扰动误导神经网络做出误分类。他们首先尝试求解让神经网络做出误分类的最小扰动的方程。 表示一张干净的图片,是一个小的扰动,l是图像的label,C(`)是深度申请网络分类器。l 阅读全文
posted @ 2019-07-31 17:19 山竹小果 阅读(10118) 评论(1) 推荐(4) 编辑
摘要: CW攻击原论文地址——https://arxiv.org/pdf/1608.04644.pdf 1.CW攻击的原理 CW攻击是一种基于优化的攻击,攻击的名称是两个作者的首字母。首先还是贴出攻击算法的公式表达: 下面解释下算法的大概思想,该算法将对抗样本当成一个变量,那么现在如果要使得攻击成功就要满足 阅读全文
posted @ 2019-07-31 13:09 山竹小果 阅读(3058) 评论(0) 推荐(1) 编辑
摘要: MIM攻击原论文地址——https://arxiv.org/pdf/1710.06081.pdf 1.MIM攻击的原理 MIM攻击全称是 Momentum Iterative Method,其实这也是一种类似于PGD的基于梯度的迭代攻击算法。它的本质就是,在进行迭代的时候,每一轮的扰动不仅与当前的梯 阅读全文
posted @ 2019-07-31 10:08 山竹小果 阅读(1185) 评论(0) 推荐(0) 编辑
摘要: PGD攻击原论文地址——https://arxiv.org/pdf/1706.06083.pdf 1.PGD攻击的原理 PGD(Project Gradient Descent)攻击是一种迭代攻击,可以看作是FGSM的翻版——K-FGSM (K表示迭代的次数),大概的思路就是,FGSM是仅仅做一次迭 阅读全文
posted @ 2019-07-31 10:03 山竹小果 阅读(4856) 评论(0) 推荐(0) 编辑
摘要: FGSM原论文地址:https://arxiv.org/abs/1412.6572 1.FGSM的原理 FGSM的全称是Fast Gradient Sign Method(快速梯度下降法),在白盒环境下,通过求出模型对输入的导数,然后用符号函数得到其具体的梯度方向,接着乘以一个步长,得到的“扰动”加 阅读全文
posted @ 2019-07-31 09:32 山竹小果 阅读(2821) 评论(0) 推荐(1) 编辑