微信扫一扫打赏支持

随笔分类 -  4_卷积神经网络

摘要:如何通俗易懂地解释卷积 一、总结 一句话总结: 卷积连续定义:(fg)(n)=f(τ)g(nτ)dτ
卷积离散定义:$$( f * g ) ( n ) = \sum 阅读全文
posted @ 2020-11-22 22:56 范仁义 阅读(1146) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5.2-4、猫狗分类(数据增强) 一、总结 一句话总结: 相比于之前的基本模型,数据增强只是在对应的train_datagen的ImageDataGenerator中增加了一些数据增强的参数 可以看到,数据增强的效果非常好,测试集准确率从71提升到了83左右 train 阅读全文
posted @ 2020-10-10 23:17 范仁义 阅读(583) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5.1、卷积神经网络简介 一、总结 一句话总结: 弄清楚为什么不同卷积核为什么得到的是不同的特征图 为什么下采样采用最大池化层(为什么不是渐进卷积层或平均池化) 1、dense层的名字? 密集连接层 2、密集连接层和卷积层的根本区别? Dense层是全局模式:Dense 阅读全文
posted @ 2020-10-08 21:47 范仁义 阅读(447) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5、CNN的多个卷积核为什么能提取到不同的特征 一、总结 一句话总结: 过滤器的权重是随机初始化的 只有卷积核学习到不同的特征,才会减少成本函数 随机初始化的权重可能会确保每个过滤器收敛到成本函数的不同的局部最小值。每个过滤器开始模仿其他过滤器是不可能的,因为这几乎肯定 阅读全文
posted @ 2020-10-08 20:44 范仁义 阅读(1249) 评论(0) 推荐(0) 编辑
摘要:《python深度学习》笔记 5、卷积神经网络识别图像比密集连接层好的根本原因 一、总结 一句话总结: 平移不变性:【右下角学到某个模式之后,它可以在任何地方识别这个模式】:卷积神经网络学到的模式具有平移不变性(translation invariant)。卷积神经网络在图像 右下角学到某个模式之后 阅读全文
posted @ 2020-10-08 18:09 范仁义 阅读(175) 评论(0) 推荐(0) 编辑
摘要:CNN网络架构演进:从LeNet到DenseNet 一、总结 一句话总结: 这篇文章有LeNet、AlexNet、VGG、GoogleNet、ResNet、DenseNet对应的keras的代码 1、LeNet? (①)、LeNet是卷积神经网络的祖师爷LeCun在1998年提出,用于解决手写数字识 阅读全文
posted @ 2020-09-23 05:58 范仁义 阅读(297) 评论(0) 推荐(0) 编辑
摘要:残差网络ResNet笔记 一、总结 一句话总结: ResNet核心是解决了增加深度带来的副作用(退化问题),这样能够通过单纯地增加网络深度,来提高网络性能。 1、网络的深度为什么重要? 因为CNN能够提取low/mid/high-level的特征,网络的层数越多,意味着能够提取到不同level的特征 阅读全文
posted @ 2020-09-21 08:52 范仁义 阅读(295) 评论(0) 推荐(0) 编辑
摘要:卷积神经网络之AlexNet 一、总结 一句话总结: AlexNet8是5层卷积,外加三层全连接层,非常好理解,参数也很好算 class AlexNet: @staticmethod def build(width,height,depth,classes,reg=0.0002): model = 阅读全文
posted @ 2020-09-19 22:31 范仁义 阅读(628) 评论(0) 推荐(0) 编辑
摘要:LeNet-5详解 一、总结 一句话总结: (①)、LeNet是卷积神经网络的祖师爷LeCun在1998年提出,用于解决手写数字识别的视觉任务。自那时起,CNN的最基本的架构就定下来了:卷积层、池化层、全连接层。 (②)、LeNet-5跟现有的conv->pool->ReLU的套路不同,它使用的方式 阅读全文
posted @ 2020-09-18 19:15 范仁义 阅读(847) 评论(0) 推荐(0) 编辑
摘要:卷积神经网络-LeNet 一、总结 一句话总结: (1)、LeNet-5的结构是卷积层、降采样层、卷积层、降采样层、全连接层。 (2)、对应的结构就是卷积层、池化层、卷积层、池化层、全连接层。 1、LeNet-5的前四层详细结构分析? 第一层(卷积convolutions):从32*32到6@28* 阅读全文
posted @ 2020-09-18 06:14 范仁义 阅读(436) 评论(0) 推荐(0) 编辑
摘要:LeNet结构详细分析 一、总结 一句话总结: 第一层(卷积):从32*32到6@28*28的卷积,需要的可以是6个5*5的卷积核,步长是1,1+32-5=28 第二层(下采样):从6@28*28到6@14*14的Subsampling(下采样、池化),需要的是2*2的池化核,步长是2 第三层(卷积 阅读全文
posted @ 2020-09-18 05:44 范仁义 阅读(634) 评论(0) 推荐(0) 编辑
摘要:降采样层和池化层的关系 一、总结 一句话总结: 池化层可以理解为下采样层(降采样层),就是一个东西,两个名字而已。 1、池化层作用? ①、降维,减少网络要学习的参数数量。 ②、防止过拟合。 ③、可以扩大感知野。 ④、可以实现不变性:平移不变性,旋转不变性,尺度不变性。 二、下采样层和池化层的关系及其 阅读全文
posted @ 2020-09-18 05:21 范仁义 阅读(1138) 评论(0) 推荐(0) 编辑
摘要:Keras实现卷积神经网络 一、总结 一句话总结: tf的高级模块keras是可以非常简单方便的实现卷积神经网络、循环神经网络等神经网络 model = Sequential()# 第一个卷积层,32个卷积核,大小5x5,卷积模式SAME,激活函数relu,输入张量的大小 model.add(Con 阅读全文
posted @ 2020-08-13 21:14 范仁义 阅读(462) 评论(0) 推荐(0) 编辑
摘要:卷积实例 一、总结 一句话总结: 卷积连续定义:(fg)(n)=f(τ)g(nτ)dτ
卷积离散定义:$$( f * g ) ( n ) = \sum _ { \t 阅读全文
posted @ 2020-08-08 08:28 范仁义 阅读(860) 评论(0) 推荐(1) 编辑
摘要:DenseNet:比ResNet更优的CNN模型 一、总结 一句话总结: (A)、DenseNet模型,它的基本思路与ResNet一致,但是它建立的是前面所有层与后面层的密集连接(dense connection),它的名称也是由此而来。 (B)、DenseNet的另一大特色是通过特征在channe 阅读全文
posted @ 2020-08-08 08:11 范仁义 阅读(1908) 评论(0) 推荐(0) 编辑
摘要:ResNet详解-通俗易懂版 一、总结 一句话总结: ResNet是一种残差网络,咱们可以把它理解为一个子网络,这个子网络经过堆叠可以构成一个很深的网络。 1、为什么要引入ResNet? ①、我们知道,网络越深,咱们能获取的信息越多,而且特征也越丰富。但是根据实验表明,随着网络的加深,优化效果反而越 阅读全文
posted @ 2020-08-08 06:47 范仁义 阅读(6519) 评论(0) 推荐(0) 编辑
摘要:残差网络ResNet笔记 一、总结 一句话总结: ResNet的主要思想是在网络中增加了直连通道,允许原始输入信息直接传到后面的层中,看图非常明显,也就是如果后面的层性能不好,可以忽略。 1、为什么卷积神经网络(Convolutional Neural Networks, CNN)中深度重要? 因为 阅读全文
posted @ 2020-08-07 15:13 范仁义 阅读(440) 评论(0) 推荐(0) 编辑
摘要:ResNet主要思想(总结) 一、总结 一句话总结: ResNet的主要思想是在网络中增加了直连通道,允许原始输入信息直接传到后面的层中,看图非常明显,也就是如果后面的层性能不好,可以忽略。 1、ResNet为什么叫残差网络? ResNet的思想允许原始输入信息直接传到后面的层中,这样的话这一层的神 阅读全文
posted @ 2020-08-07 14:56 范仁义 阅读(2509) 评论(0) 推荐(0) 编辑
摘要:TensorFlow2_200729系列 24、一些卷积网络创新点 一、总结 一句话总结: VGG 创新点:发现小的 核心(比如3*3、1*1),这样的效果更好(参数减少,计算变快,并且不影响精度) ResNet的创新点:比如33层,最低也要不比22层差,所以在33层处接了22层的短路 GoogLe 阅读全文
posted @ 2020-08-07 14:11 范仁义 阅读(261) 评论(0) 推荐(0) 编辑
摘要:卷积在计算机视觉方面的常见应用 一、总结 一句话总结: 卷积在图像锐化、图像模糊、图像的边缘检测方面早有应用,有特定的卷积矩阵,比如图像模糊,就是中间9个全是1,这样就 起到了平均,也就是模糊的作用 二、卷积在计算机视觉方面的常见应用 博客对应课程的视频位置: 阅读全文
posted @ 2020-08-06 15:51 范仁义 阅读(549) 评论(0) 推荐(0) 编辑

侧边栏

打赏

点击右上角即可分享
微信分享提示