上一页 1 ··· 10 11 12 13 14 15 16 17 18 ··· 22 下一页
摘要: CNN是深度学习在图像领域的一个应用。那么它相对于原来的神经网络方法有什么不同?为什么它适用于图像领域? 原来:全连接神经网络 需要的参数过多,例如1000*1000的图像,则输入层有10^6个节点,若隐藏层也有10^6个节点,则输入层到隐藏层的参数有10^12个。 CNN:局部感知、权值共享 CN 阅读全文
posted @ 2020-02-15 09:35 Raymone1125 阅读(727) 评论(0) 推荐(0) 编辑
摘要: 1/加载keras模块 2. 变量初始化 3. 数据集的准备 4.one-hot编码,转换类符号 5. 使用Sequential建立模型 6.打印模型 7.模型compile 8.数据归一化(图像数据需要,其他看情况吧) 9.数据增强策略 10.模型训练 11.模型评估 阅读全文
posted @ 2020-02-14 22:28 Raymone1125 阅读(177) 评论(0) 推荐(0) 编辑
摘要: 参考链接:https://blog.csdn.net/nima1994/article/details/82468965 参考链接:https://blog.csdn.net/gdl3463315/article/details/82659378 to_categorical(y, num_clas 阅读全文
posted @ 2020-02-14 22:00 Raymone1125 阅读(1265) 评论(0) 推荐(0) 编辑
摘要: VGGNet是牛津大学计算机视觉组(VisualGeometry Group)和GoogleDeepMind公司的研究员一起研发的的深度卷积神经网络。VGGNet探索了卷积神经网络的深度与其性能之间的关系,通过反复堆叠3*3的小型卷积核和2*2的最大池化层,VGGNet成功地构筑了16~19层深的卷 阅读全文
posted @ 2020-02-14 21:28 Raymone1125 阅读(449) 评论(0) 推荐(0) 编辑
摘要: Sequential 序贯模型 序贯模型是函数式模型的简略版,为最简单的线性、从头到尾的结构顺序,不分叉,是多个网络层的线性堆叠。 Keras实现了很多层,包括core核心层,Convolution卷积层、Pooling池化层等非常丰富有趣的网络结构。 我们可以通过将层的列表传递给Sequentia 阅读全文
posted @ 2020-02-14 16:57 Raymone1125 阅读(986) 评论(0) 推荐(0) 编辑
摘要: Python中numpy 数组的切片操作简介取元素 X[n0,n1]切片 X[s0:e0,s1:e1]切片特殊情况 X[:e0,s1:]示例代码输出结果简介X[n0,n1]是通过 numpy 库引用二维数组或矩阵中的某一段数据集的一种写法。类似的,X[n0,n1,n2]表示取三维数组,取N维数组则有 阅读全文
posted @ 2020-02-07 09:25 Raymone1125 阅读(2329) 评论(1) 推荐(0) 编辑
摘要: 1、linalg=linear(线性)+algebra(代数),norm则表示范数。 2、函数参数 x_norm=np.linalg.norm(x, ord=None, axis=None, keepdims=False)①x: 表示矩阵(也可以是一维) ②ord:范数类型 向量的范数: 矩阵的范数 阅读全文
posted @ 2020-02-06 11:45 Raymone1125 阅读(495) 评论(0) 推荐(0) 编辑
摘要: 方差是用来度量随机变量X 与其均值E(X) 的偏离程度。 【随机变量的协方差】 在概率论和统计中,协方差是对两个随机变量联合分布线性相关程度的一种度量。两个随机变量越线性相关,协方差越大,完全线性无关,协方差为零。定义如下: 当X,Y是同一个随机变量时,XX与其自身的协方差就是XX的方差,可以说方差 阅读全文
posted @ 2020-01-29 12:00 Raymone1125 阅读(1337) 评论(0) 推荐(1) 编辑
摘要: 在此之前,我们已经学习了前馈网络的两种结构——多层感知器和卷积神经网络,这两种结构有一个特点,就是假设输入是一个独立的没有上下文联系的单位,比如输入是一张图片,网络识别是狗还是猫。但是对于一些有明显的上下文特征的序列化输入,比如预测视频中下一帧的播放内容,那么很明显这样的输出必须依赖以前的输入, 也 阅读全文
posted @ 2020-01-06 14:28 Raymone1125 阅读(1347) 评论(0) 推荐(0) 编辑
摘要: 阅读目录 1 正则化的概念 2 正则化的作用 3 L1正则化与稀疏性 4 L2正则化为什么能防止过拟合 5 正则化项的参数选择 参考文献 过节福利,我们来深入理解下L1与L2正则化。 回到顶部 1 正则化的概念 正则化(Regularization) 是机器学习中对原始损失函数引入额外信息,以便防止 阅读全文
posted @ 2019-12-27 10:15 Raymone1125 阅读(1040) 评论(0) 推荐(0) 编辑
上一页 1 ··· 10 11 12 13 14 15 16 17 18 ··· 22 下一页