摘要: C++11的关键字final有两个用途:(1)、禁止虚函数被重写;(2)、禁止基类被继承。 在派生类中,可以同时使用overried和final。 阅读全文
posted @ 2019-08-04 10:39 山竹小果 阅读(384) 评论(0) 推荐(0) 编辑
摘要: 1.size_t的定义 size_t是一种数据相关的无符号类型,它被设计得足够大以便能够内存中任意对象的大小。 在cstddef头文件中定义了size_t类型,这个文件是C标准库stddef.h头文件的C++版本。 关于百度百科: size_t概述: size_t 类型定义在cstddef头文件中, 阅读全文
posted @ 2019-08-02 16:50 山竹小果 阅读(9172) 评论(0) 推荐(2) 编辑
摘要: 1. 简介 map和unordered_map都是c++中可以充当字典(key-value)来用的数据类型,但是其基本实现是不一样的。 2. map 对于map的底层原理,是通过红黑树(一种非严格意义上的平衡二叉树)来实现的,因此map内部所有的数据都是有序的,map的查询、插入、删除操作的时间复杂 阅读全文
posted @ 2019-08-01 13:41 山竹小果 阅读(7409) 评论(0) 推荐(0) 编辑
摘要: 目前,在对抗攻击防御上存在三个主要方向: 1)在学习过程中修改训练过程或者修改的输入样本。 2)修改网络,比如:添加更多层/子网络、改变损失/激活函数等。 3)当分类未见过的样本时,用外部模型作为附加网络。 第一个方法没有直接处理学习模型。另一方面,另外两个分类是更加关心神经网络本身的。 这些方法可 阅读全文
posted @ 2019-07-31 20:01 山竹小果 阅读(4655) 评论(0) 推荐(3) 编辑
摘要: 1 Box-constrained L-BFGS Szegedy[22] 等人首次证明了可以通过对图像添加小量的人类察觉不到的扰动误导神经网络做出误分类。他们首先尝试求解让神经网络做出误分类的最小扰动的方程。 表示一张干净的图片,是一个小的扰动,l是图像的label,C(`)是深度申请网络分类器。l 阅读全文
posted @ 2019-07-31 17:19 山竹小果 阅读(9995) 评论(1) 推荐(4) 编辑
摘要: CW攻击原论文地址——https://arxiv.org/pdf/1608.04644.pdf 1.CW攻击的原理 CW攻击是一种基于优化的攻击,攻击的名称是两个作者的首字母。首先还是贴出攻击算法的公式表达: 下面解释下算法的大概思想,该算法将对抗样本当成一个变量,那么现在如果要使得攻击成功就要满足 阅读全文
posted @ 2019-07-31 13:09 山竹小果 阅读(3011) 评论(0) 推荐(1) 编辑
摘要: MIM攻击原论文地址——https://arxiv.org/pdf/1710.06081.pdf 1.MIM攻击的原理 MIM攻击全称是 Momentum Iterative Method,其实这也是一种类似于PGD的基于梯度的迭代攻击算法。它的本质就是,在进行迭代的时候,每一轮的扰动不仅与当前的梯 阅读全文
posted @ 2019-07-31 10:08 山竹小果 阅读(1161) 评论(0) 推荐(0) 编辑
摘要: PGD攻击原论文地址——https://arxiv.org/pdf/1706.06083.pdf 1.PGD攻击的原理 PGD(Project Gradient Descent)攻击是一种迭代攻击,可以看作是FGSM的翻版——K-FGSM (K表示迭代的次数),大概的思路就是,FGSM是仅仅做一次迭 阅读全文
posted @ 2019-07-31 10:03 山竹小果 阅读(4793) 评论(0) 推荐(0) 编辑
摘要: FGSM原论文地址:https://arxiv.org/abs/1412.6572 1.FGSM的原理 FGSM的全称是Fast Gradient Sign Method(快速梯度下降法),在白盒环境下,通过求出模型对输入的导数,然后用符号函数得到其具体的梯度方向,接着乘以一个步长,得到的“扰动”加 阅读全文
posted @ 2019-07-31 09:32 山竹小果 阅读(2793) 评论(0) 推荐(1) 编辑
摘要: 本系列笔者将对自己的对抗样本学习做一个全面地整理与总结。 定义 对抗样本指的是攻击者故意设计的,被用来输入到机器学习模型里,引发模型出错的值,它就像是让机器在视觉上产生幻觉一样。由于神经网络学习到的那个函数是不连续的,只需要在原始图片上做微小的扰动,就能让处理后的图片以很高的置信度被错误分类,甚至能 阅读全文
posted @ 2019-07-30 15:09 山竹小果 阅读(585) 评论(0) 推荐(0) 编辑