摘要: 值得再度好多遍:https://www.cnblogs.com/wj-1314/p/9593364.html 摘抄自‘ 战争热诚’ 的博文 权值共享: 下图左:如果我们有1000x1000像素的图像,有1百万个隐层神经元,那么他们全连接的话(每个隐层神经元都连接图像的每一个像素点),就有1000x1 阅读全文
posted @ 2020-05-20 17:07 ChevisZhang 阅读(1826) 评论(0) 推荐(0) 编辑
摘要: 1. 池化层 pooling 特征降维,减少过拟合 1) pooling的目的是 使得每一层smaller and more manageable , 这是为了有更少的参数数量,来表示输入的这张图 2) 池化操作 只在平面上(actication map)操作,不在depth上操作,所以depth 阅读全文
posted @ 2020-05-20 16:49 ChevisZhang 阅读(130) 评论(0) 推荐(0) 编辑
摘要: slides见 http://cs231n.stanford.edu/2017/syllabus.html 1. 回顾全连接层 2. 卷积层: 能maintain数据的空间结构 1) fileterW在做点积的时候,5*5*3 被flatten 成 75*1 ,然后点积得到一个值 两个向量a = [ 阅读全文
posted @ 2020-05-20 11:40 ChevisZhang 阅读(126) 评论(0) 推荐(0) 编辑
摘要: slides 见 http://cs231n.stanford.edu/2017/syllabus.html neural Networks 1) h 为 x W1 的 score matrix ,再作用于 max(0,)函数之后所得矩阵 2) assignment2 两层神经网络的 反向传播 3) 阅读全文
posted @ 2020-05-20 10:29 ChevisZhang 阅读(123) 评论(0) 推荐(0) 编辑