07 2019 档案

摘要:目前,在对抗攻击防御上存在三个主要方向: 1)在学习过程中修改训练过程或者修改的输入样本。 2)修改网络,比如:添加更多层/子网络、改变损失/激活函数等。 3)当分类未见过的样本时,用外部模型作为附加网络。 第一个方法没有直接处理学习模型。另一方面,另外两个分类是更加关心神经网络本身的。 这些方法可 阅读全文
posted @ 2019-07-31 20:01 山竹小果 阅读(5114) 评论(0) 推荐(3)
摘要:1 Box-constrained L-BFGS Szegedy[22] 等人首次证明了可以通过对图像添加小量的人类察觉不到的扰动误导神经网络做出误分类。他们首先尝试求解让神经网络做出误分类的最小扰动的方程。 表示一张干净的图片,是一个小的扰动,l是图像的label,C(`)是深度申请网络分类器。l 阅读全文
posted @ 2019-07-31 17:19 山竹小果 阅读(10508) 评论(1) 推荐(4)
摘要:CW攻击原论文地址——https://arxiv.org/pdf/1608.04644.pdf 1.CW攻击的原理 CW攻击是一种基于优化的攻击,攻击的名称是两个作者的首字母。首先还是贴出攻击算法的公式表达: 下面解释下算法的大概思想,该算法将对抗样本当成一个变量,那么现在如果要使得攻击成功就要满足 阅读全文
posted @ 2019-07-31 13:09 山竹小果 阅读(3358) 评论(0) 推荐(1)
摘要:MIM攻击原论文地址——https://arxiv.org/pdf/1710.06081.pdf 1.MIM攻击的原理 MIM攻击全称是 Momentum Iterative Method,其实这也是一种类似于PGD的基于梯度的迭代攻击算法。它的本质就是,在进行迭代的时候,每一轮的扰动不仅与当前的梯 阅读全文
posted @ 2019-07-31 10:08 山竹小果 阅读(1273) 评论(0) 推荐(0)
摘要:PGD攻击原论文地址——https://arxiv.org/pdf/1706.06083.pdf 1.PGD攻击的原理 PGD(Project Gradient Descent)攻击是一种迭代攻击,可以看作是FGSM的翻版——K-FGSM (K表示迭代的次数),大概的思路就是,FGSM是仅仅做一次迭 阅读全文
posted @ 2019-07-31 10:03 山竹小果 阅读(5128) 评论(0) 推荐(0)
摘要:FGSM原论文地址:https://arxiv.org/abs/1412.6572 1.FGSM的原理 FGSM的全称是Fast Gradient Sign Method(快速梯度下降法),在白盒环境下,通过求出模型对输入的导数,然后用符号函数得到其具体的梯度方向,接着乘以一个步长,得到的“扰动”加 阅读全文
posted @ 2019-07-31 09:32 山竹小果 阅读(3012) 评论(0) 推荐(1)
摘要:本系列笔者将对自己的对抗样本学习做一个全面地整理与总结。 定义 对抗样本指的是攻击者故意设计的,被用来输入到机器学习模型里,引发模型出错的值,它就像是让机器在视觉上产生幻觉一样。由于神经网络学习到的那个函数是不连续的,只需要在原始图片上做微小的扰动,就能让处理后的图片以很高的置信度被错误分类,甚至能 阅读全文
posted @ 2019-07-30 15:09 山竹小果 阅读(681) 评论(0) 推荐(0)
摘要:第3章:形式语言与自动机及在NLP中的应用 基本概念: 形式文法、推导、文法的二义性、自动机 文法与自动机之间的关系: 对应与转换 应用举例: 编辑距离 阅读全文
posted @ 2019-07-07 00:27 山竹小果 阅读(245) 评论(0) 推荐(0)
摘要:第二章 数学基础 概率论基础信息论基础: 熵、联合熵、相对熵、困惑度、互信息、噪声信道模型 熵又称为自信息,表示信息X每发出一个符号(不论发什么符号)所提供的平均信息量。熵也可以被视为描述一个随机变量的不确定性的数量。一个随机变量的熵越大,它的不确定性越大。那么, 正确估计其值的可能性就越小。越不确 阅读全文
posted @ 2019-07-05 15:20 山竹小果 阅读(404) 评论(0) 推荐(0)
摘要:第一章 绪论 问题的提出 基本概念: NLU、 CL、 NLP CL 计算语言学 侧重于: 基础理论和方法 NLU 自然语言理解 :模仿人类 自然语言处理方法 和 实现技术 NLP 自然语言处理 : 对语言文本进行处理和加工 包括对词法 句法 语义和语用等信息的识别 分类 提取 转换和僧成等各种处理 阅读全文
posted @ 2019-07-04 23:06 山竹小果 阅读(691) 评论(0) 推荐(1)