摘要: 那么为什么会出现梯度消失的现象呢?因为通常神经网络所用的激活函数是sigmoid函数,这个函数有个特点,就是能将负无穷到正无穷的数映射到0和1之间,并且对这个函数求导的结果是f′(x)=f(x)(1−f(x))f′(x)=f(x)(1−f(x))。因此两个0到1之间的数相乘,得到的结果就会变得很小了 阅读全文
posted @ 2019-10-07 21:42 NicoleHe 阅读(122) 评论(0) 推荐(0) 编辑
摘要: 很久之前学的,这次回顾的时候发现自己把梯度下降法和导数=0搞混了。 导数=0是直接的求法,可能是极大值也可能是极小值。 梯度下降法是一步步逼近极小值的方法,而不是一步到位的。(因为在求法中θ1 = θ0 - α*梯度,而梯度是函数上升最快的方向,加上一个负号,所以一定是函数下降的方向) https: 阅读全文
posted @ 2019-10-07 13:11 NicoleHe 阅读(151) 评论(0) 推荐(0) 编辑
摘要: https://www.jianshu.com/p/00425f6c0936讲的很有趣。 argparse是一个命令行参数解析模块。 代码中注意是 --ParA 还是 ParA 阅读全文
posted @ 2019-09-27 16:06 NicoleHe 阅读(288) 评论(0) 推荐(0) 编辑
摘要: 【原创文章 作者:NicoleHe】 这是一道非常简单的递归调用的题,但是我在思考时产生了一些混乱,隐隐约约觉得很熟悉,就是不能用代码实现出来。 因此这里针对这类“依次添加”的问题给出大致的递归操作步骤。以后会更新对应的栈操作实现。 首先放出原题:Letter Combinations of a P 阅读全文
posted @ 2018-12-05 19:53 NicoleHe 阅读(215) 评论(0) 推荐(0) 编辑
摘要: 版权声明:本文为转载文章,转自 https://blog.csdn.net/hjimce/article/details/47323463 卷积神经网络入门学(1)原文地址:http://blog.csdn.net/hjimce/article/details/47323463作者:hjimce卷积 阅读全文
posted @ 2018-12-02 10:10 NicoleHe 阅读(4284) 评论(0) 推荐(0) 编辑