2019年2月23日

Python arange

摘要: 原文来自DeniuHe。原文链接 阅读全文

posted @ 2019-02-23 19:59 谢小顿 阅读(1484) 评论(0) 推荐(0) 编辑

权重衰减(weight decay)与学习率衰减(learning rate decay)

摘要: 文章来自Microstrong的知乎专栏,仅做搬运。原文链接 1. 权重衰减(weight decay) L2正则化的目的就是为了让权重衰减到更小的值,在一定程度上减少模型过拟合的问题,所以权重衰减也叫L2正则化。 1.1 L2正则化与权重衰减系数 L2正则化就是在代价函数后面再加上一个正则化项: 阅读全文

posted @ 2019-02-23 15:47 谢小顿 阅读(7808) 评论(0) 推荐(0) 编辑

Python中的matplotlib xticks

摘要: 文章来自 Claroja的CSDN博客,仅做搬运。原文链接 在matplotlib中ticks表示的是刻度,而刻度有两层意思,一个是刻标(locs),一个是刻度标签(tick labels)。在作图时,x轴y轴都是连续的,所以刻标可以随意指定,就是在连续变量上找寻位置,而刻度标签则可以对应替换 此外 阅读全文

posted @ 2019-02-23 14:46 谢小顿 阅读(17870) 评论(2) 推荐(1) 编辑

深度学习中的Dropout

摘要: dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-batch都在训练不同的网络。 dropout是CNN中防止过拟合提高效果的一个大杀器,但对于其为何有效,却众说纷纭。 作者:张雨 阅读全文

posted @ 2019-02-23 13:42 谢小顿 阅读(325) 评论(0) 推荐(0) 编辑

导航