上一页 1 ··· 3 4 5 6 7 8 9 10 下一页
摘要: 这是为了解决深层神经网络梯度消失的问题 因为随着训练的进行,我们每一层的网络输出会逐渐两极分化 比如使用的是tanh激活函数,到最后就会使偏导几乎等于0,网络的训练时间过长 我们可以把每一层的输出看做符合N(u, alaph)的正态分布 如果我们能将这一层的正太分布改为符合N(0,1)就很舒服了 Z 阅读全文
posted @ 2018-04-26 23:27 shensobaolibin 阅读(155) 评论(0) 推荐(0) 编辑
摘要: 我们一般认为神经网络会有局部最优解 就像三维中的坑洞一样,可能使我们的神经网络陷进去就出不来了 其实不是这样的 可以看到,我门的loss其实是一个多维的神经网络 那么对于第i维,我可以大致的认为在这一维,他上升或下降的概率均为0.5 我们知道,如果要形成坑洞的话,我们在这个区域上的所有点的梯度都必须 阅读全文
posted @ 2018-04-26 23:17 shensobaolibin 阅读(614) 评论(0) 推荐(1) 编辑
摘要: MINI-BRATCH 这个就是把一个大训练集分成几个小训练集去训练 主要原因,,,,是因为训练集太大,显存塞不下 这样的话,loss会有一定波动,就是有时上升,有时下降,但总体趋势是下降的 最后精度上升到一个值后,训练很多次都没有上升,训练完成 动量梯度下降: 简单来说就是在训练一整个训练集的时候 阅读全文
posted @ 2018-04-25 21:21 shensobaolibin 阅读(258) 评论(0) 推荐(0) 编辑
摘要: 正则化输入就是把我们输入的X中的值给归一到0附近 比如我的输入是一张图片,也就是h * w * 3 的矩阵 那么我可以把其中的每个数 x - 120再除以120,使得我们输入的值围绕在原地附近 这样做的原因是,我们的learning_rate是固定的,对于一切的w,b都是同一个learning_ra 阅读全文
posted @ 2018-04-25 20:09 shensobaolibin 阅读(170) 评论(0) 推荐(0) 编辑
摘要: 训练神经网络时,我们会有一个训练集,一个测试集,人在这件事上几乎是不会出错的 当训练集精度为99%,而测试集精度为90%时 这时就是出现了过拟合,我们称他为方差较高 当训练集精度为85%,测试集精度也为85%时 这就是拟合的不好,我们称他为高偏差 为了之后表达方便我称训练集精度为a,测试集精度为b 阅读全文
posted @ 2018-04-25 17:39 shensobaolibin 阅读(1428) 评论(0) 推荐(0) 编辑
摘要: 将内容为char的list拼接在一起形成一个字符串 输出为a-b-c,那么我们只要将str改为''即可 阅读全文
posted @ 2018-02-28 09:23 shensobaolibin 阅读(145) 评论(0) 推荐(0) 编辑
摘要: 自己在搞深度学习的时候发现negdata图片是50*50的,posdata图片是20*20的,想统一成20*20的 于是就决定写一个脚本搞定他 记得以前群里有个人问有没有可以批量压缩图片的软件 下什么软件呀 直接自己写脚本 (莫名感觉自己好厉害 阅读全文
posted @ 2018-02-20 16:48 shensobaolibin 阅读(406) 评论(0) 推荐(0) 编辑
摘要: 恢复内容开始 最近写网站想代码重用结果一直出现import error 现在说下解决办法 python import 是只能import 包而不是随便什么文件夹都可以import 所以就要让python认为你的文件夹是包 直接举例子把 我们要import一个包就要包这个包加入系统路径 比如我在这个程 阅读全文
posted @ 2018-02-08 22:20 shensobaolibin 阅读(1534) 评论(0) 推荐(0) 编辑
摘要: 碰到了这样一个问题 就是写一个注册的后端程序 然后想分文件写,视图函数写在main.py里面 然后注册程序写在registeraction.py里面 然后在registeraction.py里写了一个add_user(username,password,email) 自己调试的时候,给这个函数传3个 阅读全文
posted @ 2018-02-02 22:38 shensobaolibin 阅读(141) 评论(0) 推荐(0) 编辑
摘要: 接下来是读get的数据 阅读全文
posted @ 2018-01-31 10:39 shensobaolibin 阅读(183) 评论(0) 推荐(0) 编辑
上一页 1 ··· 3 4 5 6 7 8 9 10 下一页