02 2020 档案
摘要:ResNet学习什么是ResNet为什么要引入ResNet?ResNet详细解说本篇博客主要是自己对论文的一些解读以及参考一些博客后的理解,如若有不对之处,请各位道友指出。多谢! 2015年刚提出ResNet的Paper2016对ResNet进行改进之后的Paper 什么是ResNetResNet是
阅读全文
摘要:https://adeshpande3.github.io/adeshpande3.github.io/ https://blog.csdn.net/weiwei9363/article/details/79112872 https://blog.csdn.net/and_w/article/det
阅读全文
摘要:卷积神经网络(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。 它包括卷积层(convolutional layer)和池化层(pooling layer)。 对比:卷积神经网络、全连
阅读全文
摘要:在做自然语言处理的过程中,现在智能对话比较火,例如智能客服,智能家电,智能音箱等,我们需要获取用户说话的意图,方便做出正确的回答,这里面就涉及到句子相似度计算的问题,那么本节就来了解一下怎么样来用 Python 实现句子相似度的计算。 句子相似度常用的几种方法: 1、编辑距离 2、杰卡德系数计算 3
阅读全文
摘要:摘要: Dropout正则化是最简单的神经网络正则化方法。阅读完本文,你就学会了在Keras框架中,如何将深度学习神经网络Dropout正则化添加到深度学习神经网络模型里。 Dropout正则化是最简单的神经网络正则化方法。其原理非常简单粗暴:任意丢弃神经网络层中的输入,该层可以是数据样本中的输入变
阅读全文
摘要:深度神经网络的最后一层往往是全连接层+Softmax(分类网络),如下图所示,图片来自StackExchange。 先看一下计算方式:全连接层将权重矩阵与输入向量相乘再加上偏置,将nn个(−∞,+∞)(−∞,+∞)的实数映射为KK个(−∞,+∞)(−∞,+∞)的实数(分数);Softmax将KK个(
阅读全文
摘要:卷积运算与相关运算 在计算机视觉领域,卷积核、滤波器通常为较小尺寸的矩阵,比如3×33×3、5×55×5等,数字图像是相对较大尺寸的2维(多维)矩阵(张量),图像卷积运算与相关运算的关系如下图所示(图片来自链接),其中FF为滤波器,XX为图像,OO为结果。 相关是将滤波器在图像上滑动,对应位置相乘求
阅读全文
摘要:CNN是深度学习在图像领域的一个应用。那么它相对于原来的神经网络方法有什么不同?为什么它适用于图像领域? 原来:全连接神经网络 需要的参数过多,例如1000*1000的图像,则输入层有10^6个节点,若隐藏层也有10^6个节点,则输入层到隐藏层的参数有10^12个。 CNN:局部感知、权值共享 CN
阅读全文
摘要:1/加载keras模块 2. 变量初始化 3. 数据集的准备 4.one-hot编码,转换类符号 5. 使用Sequential建立模型 6.打印模型 7.模型compile 8.数据归一化(图像数据需要,其他看情况吧) 9.数据增强策略 10.模型训练 11.模型评估
阅读全文
摘要:参考链接:https://blog.csdn.net/nima1994/article/details/82468965 参考链接:https://blog.csdn.net/gdl3463315/article/details/82659378 to_categorical(y, num_clas
阅读全文
摘要:VGGNet是牛津大学计算机视觉组(VisualGeometry Group)和GoogleDeepMind公司的研究员一起研发的的深度卷积神经网络。VGGNet探索了卷积神经网络的深度与其性能之间的关系,通过反复堆叠3*3的小型卷积核和2*2的最大池化层,VGGNet成功地构筑了16~19层深的卷
阅读全文
摘要:Sequential 序贯模型 序贯模型是函数式模型的简略版,为最简单的线性、从头到尾的结构顺序,不分叉,是多个网络层的线性堆叠。 Keras实现了很多层,包括core核心层,Convolution卷积层、Pooling池化层等非常丰富有趣的网络结构。 我们可以通过将层的列表传递给Sequentia
阅读全文
摘要:Python中numpy 数组的切片操作简介取元素 X[n0,n1]切片 X[s0:e0,s1:e1]切片特殊情况 X[:e0,s1:]示例代码输出结果简介X[n0,n1]是通过 numpy 库引用二维数组或矩阵中的某一段数据集的一种写法。类似的,X[n0,n1,n2]表示取三维数组,取N维数组则有
阅读全文
摘要:1、linalg=linear(线性)+algebra(代数),norm则表示范数。 2、函数参数 x_norm=np.linalg.norm(x, ord=None, axis=None, keepdims=False)①x: 表示矩阵(也可以是一维) ②ord:范数类型 向量的范数: 矩阵的范数
阅读全文