摘要:
转载自:https://www.leiphone.com/news/201706/CrSyyhCUNz2gYIIJ.html 一、怎么样的系统是安全的系统? 如果让 Ian Goodfellow和Nicolas Papernot 给出定义的话,一个可靠的、可以保证像预期那样工作的系统,就是一个安全的 阅读全文
摘要:
原文:https://blog.csdn.net/kearney1995/article/details/79741699 为了防御之前提出的FGSM和JSMA的攻击方式,作者根据之前hinton提出的蒸馏学习的方式,再此基础上稍作修改得到了防御蒸馏模型,并理论推导了防御有效性的原因。 蒸馏学习是原 阅读全文
摘要:
参考文献: https://blog.csdn.net/qq_39638957/article/details/80406352?utm_source=blogxgwz0 对于神经网络,熊猫会被错误分类为长臂猿。 不只是神经网络,线性模型也会被攻击,下图圈出来的“9”已结不再被模型认为是“9”了 这 阅读全文
摘要:
转载自:https://yq.aliyun.com/ziliao/292780 机器学习方法,如SVM,神经网络等,虽然在如图像分类等问题上已经outperform人类对同类问题的处理能力,但是也有其固有的缺陷,即我们的训练集喂的都是natural input,因此在正常情况下处理的比较好。然而如果 阅读全文
摘要:
对抗样本机器学习_Note1_机器学习 转载自: https://yq.aliyun.com/ziliao/292780 机器学习方法,如SVM,神经网络等,虽然在如图像分类等问题上已经outperform人类对同类问题的处理能力,但是也有其固有的缺陷,即我们的训练集喂的都是natural inpu 阅读全文
摘要:
实验代码在TensorFlow笔记本本地文件夹的“tensorflow-adversarial-master/cqx”中 文章来源:Github Four adversarial image crafting algorithms are implemented with Tensorflow. T 阅读全文
摘要:
http://colah.github.io/posts/2015-08-Backprop/?spm=a2c4e.11153940.blogcont149583.20.4ab360c05me4Uv Calculus on Computational Graphs: Backpropagation 计 阅读全文
摘要:
tf.Variable:主要在于一些可训练变量(trainable variables),比如模型的权重(weights,W)或者偏执值(bias); 声明时,必须提供初始值; 名称的真实含义,在于变量,也即在真实训练时,其值是会改变的,自然事先需要指定初始值; 声明时,必须提供初始值; 名称的真实 阅读全文
摘要:
https://blog.openai.com/robust-adversarial-inputs/?spm=a2c4e.11153940.blogcont149583.11.4ab360c0mXrtX7 原文中包含视频例子。 我们创建的图像可以在从不同的尺度和视角观察时可靠地欺骗神经网络分类器。 阅读全文
摘要:
原文:https://blog.csdn.net/jasonzzj/article/details/52017438 本文只讨论Logistic回归的交叉熵,对Softmax回归的交叉熵类似。 交叉熵的公式 以及J(θ)对J(θ)对参数θ的偏导数(用于诸如梯度下降法等优化算法的参数更新),如下: 交 阅读全文