摘要: 1.深度学习本质就是找一个函数能够拟合某一个的问题。 2.如果没有非线性的激活函数,整个函数就只有线性,也就是说你只能去线性地分类问题,但很多问题都不是线性可分的。 3.人脑神经元的连接是稀疏的,因此研究者认为大型神经网络的合理的连接方式应该也是稀疏的。稀疏结构是非常适合神经网络的一种结构,尤其是对 阅读全文
posted @ 2017-04-06 17:47 有梦就要去实现他 阅读(209) 评论(0) 推荐(0) 编辑
摘要: 如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出都是上层输入的线性函数,很容易验证,无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(Perceptron)了。正因为上面的原因,我们决定引入非线性函数作为激励函数,这样 阅读全文
posted @ 2017-04-06 17:24 有梦就要去实现他 阅读(1099) 评论(0) 推荐(0) 编辑
摘要: 错误代码: 正确代码: 正确代码只是比错误代码在reverse函数中增加了一个参数引用 错误代码使用的reverse函数并不能改变str这个实参,导致后面的翻转出错。增加参数引用后就能对参数str进行改变。 阅读全文
posted @ 2017-04-06 16:54 有梦就要去实现他 阅读(181) 评论(0) 推荐(0) 编辑