摘要: Generating Fluent Adversarial Examples for Natural Languages ACL 2019 为自然语言生成流畅的对抗样本 摘要 有效地构建自然语言处理(NLP)任务的对抗性攻击者是一个真正的挑战。首先,由于句子空间是离散的。沿梯度方向做小扰动是困难的。 阅读全文
posted @ 2019-08-14 19:56 山竹小果 阅读(1073) 评论(2) 推荐(0) 编辑
摘要: BadNets: 识别机器学习模型供应链中的漏洞 摘要 基于深度学习的技术已经在各种各样的识别和分类任务上取得了最先进的性能。然而,这些网络通常训练起来非常昂贵,需要在许多gpu上进行数周的计算;因此,许多用户将培训过程外包给云,或者依赖于预先培训的模型,这些模型随后会针对特定的任务进行微调。 在本 阅读全文
posted @ 2019-08-13 23:06 山竹小果 阅读(5099) 评论(0) 推荐(1) 编辑
摘要: 对神经网络的木马攻击 Q: 1. 模型蒸馏可以做防御吗? 2. 强化学习可以帮助生成木马触发器吗? 3. 怎么挑选建立强连接的units? 本文提出了一种针对神经元网络的木马攻击。模型不直观,不易被人理解,攻击具有隐蔽性。 首先对神经元网络进行反向处理,生成一个通用的木马触发器,然后利用外部数据集对 阅读全文
posted @ 2019-08-13 17:44 山竹小果 阅读(2595) 评论(0) 推荐(1) 编辑
摘要: copy与deepcopy python 中的copy与deepcopy是内存数据的操作,但是两个函数有一定的区别。 1.copy 经过copy操作的得两个list,list1拥有两个同的地址(46925320和46967368),修改list时不会影响list1的值,但是 list中间的子列表[4 阅读全文
posted @ 2019-08-13 15:29 山竹小果 阅读(377) 评论(0) 推荐(0) 编辑
摘要: 摘要 以前的对抗攻击关注于静态输入,这些方法对流输入的目标模型并不适用。攻击者只能通过观察过去样本点在剩余样本点中添加扰动。 这篇文章提出了针对于具有流输入的机器学习模型的实时对抗攻击。 1 介绍 在实时处理场景中,攻击者只能观察数据样本的过去部分,并且只能向数据样本的未来部分添加扰动,而目标模型的 阅读全文
posted @ 2019-08-09 15:41 山竹小果 阅读(601) 评论(0) 推荐(0) 编辑
摘要: namedtuple 不必再通过索引值进行访问,你可以把它看做一个字典通过名字进行访问,只不过其中的值是不能改变的。 sorted()适用于任何可迭代容器,list.sort()仅支持list(本身就是list的一个方法) np.linalg.norm(求范数) namedtuple 不必再通过索引 阅读全文
posted @ 2019-08-08 15:24 山竹小果 阅读(175) 评论(0) 推荐(0) 编辑
摘要: 第3章 k近邻法 第3章 k近邻法 第3章 k近邻法 第3章 k近邻法 1.近邻法是基本且简单的分类与回归方法。近邻法的基本做法是:对给定的训练实例点和输入实例点,首先确定输入实例点的个最近邻训练实例点,然后利用这个训练实例点的类的多数来预测输入实例点的类。 2.近邻模型对应于基于训练数据集对特征空 阅读全文
posted @ 2019-08-08 14:35 山竹小果 阅读(491) 评论(0) 推荐(0) 编辑
摘要: egend函数 legend函数介绍:在轴上方一个图例 legend常用属性: loc:图例摆放的位置,值请看下方文档 ncol; 图例列数,它的值决定了图例一共有多少列,详细请看下方文档 label:如果需要完全控制图例中的内容可以不写plot中的label,写在legend中,请看图中示例 sk 阅读全文
posted @ 2019-08-08 13:12 山竹小果 阅读(423) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2019-08-07 17:05 山竹小果 阅读(707) 评论(0) 推荐(0) 编辑
摘要: numpy.linspace(start, stop, num=50, endpoint=True, retstep=False, dtype=None) 在指定的间隔内返回均匀间隔的数字。 返回num均匀分布的样本,在[start, stop]。 这个区间的端点可以任意的被排除在外。 Parame 阅读全文
posted @ 2019-08-07 14:58 山竹小果 阅读(163) 评论(0) 推荐(0) 编辑