随笔分类 -  adversarial learning

adversarial attacks/ defenses
摘要:原文地址 slides GitHub 代码 本文发表于 2021 ICML,提出了一个新颖的神经网络计算方式:对于网络中的每个神经元,不采用传统的线性转换+非线性激活函数的方式,而是计算输入与参数之间的 -distance,作者将其称为 - 阅读全文
posted @ 2022-07-15 07:14 李斯赛特 阅读(1162) 评论(0) 推荐(0) 编辑
摘要:提出 JSMA 对抗样本生成方法 阅读全文
posted @ 2022-07-02 18:23 李斯赛特 阅读(1469) 评论(0) 推荐(0) 编辑
摘要:Basic iterative method(BIM):论文地址 笔记地址 Projected gradient descent(PGD):论文地址 笔记地址 区别1 来自于:https://www.sciencedirect.com/science/article/pii/S20958099193 阅读全文
posted @ 2022-06-26 23:47 李斯赛特 阅读(2626) 评论(0) 推荐(0) 编辑
摘要:有关蒸馏 (Distillation)的论文: (2006)Model Compression (2014)Do Deep Nets Really Need to be Deep? 论文笔记 (2015)Distilling the Knowledge in a Neural Network 论文笔 阅读全文
posted @ 2022-06-26 21:10 李斯赛特 阅读(1985) 评论(0) 推荐(0) 编辑
摘要:本文主要是给出了两类多个对抗攻击方法:one-step 攻击和 multi-step 攻击,并在大型模型和大型数据集上对这些方法进行对比实验,实验结果发现使用 one-step 样本进行对抗训练的模型具有较强的对抗鲁棒性,且 one-step 攻击比 multi-step 攻击的可转移性强,此外还发 阅读全文
posted @ 2022-06-15 11:35 李斯赛特 阅读(2087) 评论(0) 推荐(0) 编辑
摘要:摘要 作者从鲁棒优化(robust optimization)的角度研究了神经网络的对抗鲁棒性(adversarial robustness)。基于鞍点公式(min-max)本文提出了一种防御任何对抗样本的方法。 1 介绍 本文的主要贡献: 对抗样本的生成、对抗训练(即攻击与防御)是同一的,这是一个 阅读全文
posted @ 2022-06-12 05:42 李斯赛特 阅读(3114) 评论(0) 推荐(0) 编辑
摘要:本文发表于 ICLR 2015,提出了经典的攻击方法 - FGSM(Fast Gradient Sign Method),这篇博客的第1-5节为重点部分,包括原文第5节的公式推导。 1. 对抗扰动 寻找对抗样本的目标是:1)模型将其错误分类;2)人眼无法分辨对抗扰动。已知对抗样本 $\tilde{x 阅读全文
posted @ 2022-05-23 12:03 李斯赛特 阅读(1960) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示