上一页 1 ··· 15 16 17 18 19 20 21 22 23 ··· 58 下一页
摘要: 1.梯度消失 根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0。 这种情况会导致靠近输入层的隐含层神经元调整极小。 2.梯度膨胀 根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都 阅读全文
posted @ 2020-08-18 18:42 GumpYan 阅读(1857) 评论(0) 推荐(0) 编辑
摘要: 1.高方差和高偏差 偏差: 描述的是预测值(估计值)的期望与真实值之间的差距。偏差越大,越偏离真实数据集。 方差: 描述的是预测值的变化范围,离散程度,也就是离其期望值的距离。方差越大,预测结果数据的分布越散。 理解偏差和方差(bias/variance)的两个关键数据是训练集误差(train se 阅读全文
posted @ 2020-08-18 16:46 GumpYan 阅读(1517) 评论(0) 推荐(0) 编辑
摘要: 一、conv1d 在NLP领域,甚至图像处理的时候,我们可能会用到一维卷积(conv1d)。所谓的一维卷积可以看作是二维卷积(conv2d)的简化,二维卷积是将一个特征图在width和height两个方向上进行滑窗操作,对应位置进行相乘并求和;而一维卷积则是只在width或者说height方向上进行 阅读全文
posted @ 2020-08-18 14:52 GumpYan 阅读(2305) 评论(0) 推荐(0) 编辑
摘要: 1.测试tensorboard # tensorflow2.1.0+win10 import tensorflow.compat.v1 as tf tf.disable_v2_behavior() import numpy as np with tf.name_scope(name='filed') 阅读全文
posted @ 2020-08-18 10:53 GumpYan 阅读(139) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-08-18 10:49 GumpYan 阅读(176) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-08-17 20:00 GumpYan 阅读(174) 评论(0) 推荐(0) 编辑
摘要: 1.卷积的认识 已有的运算:加减乘除,幂运算指数运算 卷积:卷积是一种运算 2.卷积运算 卷积操作是使用一个二维卷积核(3x3)在一个批处理的图片上不断扫描,具体操作就是将一个卷积核在每张图片上按照一个合适的尺寸在每个通道上面进行扫描 3.使用卷积的目的 卷积核,小卷积(3x3,5x5)本质当成系数 阅读全文
posted @ 2020-08-17 16:19 GumpYan 阅读(1198) 评论(0) 推荐(0) 编辑
摘要: 1.Tensorflow写代码流程 (1)定义变量占位符 (2)根据数学原理写方程 (3)定义损失函数cost (4)定义优化梯度下降(GradientDescentOptimizer) (5)Session训练,for循环 (6)保存Saver 2.反向传播(权重更新) 通俗理解: 几个人站成一排 阅读全文
posted @ 2020-08-17 15:38 GumpYan 阅读(151) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-08-17 15:04 GumpYan 阅读(129) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2020-08-14 17:20 GumpYan 阅读(0) 评论(0) 推荐(0) 编辑
上一页 1 ··· 15 16 17 18 19 20 21 22 23 ··· 58 下一页