摘要:
靠近输入的神经元会比靠近输出的神经元的梯度成指数级衰减 靠近输出层的hidden layer 梯度大,参数更新快,所以很快就会收敛; 而靠近输入层的hidden layer 梯度小,参数更新慢,几乎就和初始状态一样,随机分布。 这种现象就是梯度弥散(vanishing gradient proble 阅读全文
摘要:
激活函数是用来加入非线性因素的,解决线性模型所不能解决的问题。 激活函数通常有如下一些性质: 非线性: 当激活函数是线性的时候,一个两层的神经网络就可以逼近基本上所有的函数了。但是,如果激活函数是恒等激活函数的时候(即f(x)=x),就不满足这个性质了,而且如果MLP使用的是恒等激活函数,那么其实整 阅读全文