梯度消失、爆炸原因及其解决方法
摘要:一、梯度不稳定问题: 什么是梯度不稳定问题:深度神经网络中的梯度不稳定性,前面层中的梯度或会消失,或会爆炸。 原因:前面层上的梯度是来自于后面层上梯度的乘乘积。当存在过多的层次时,就出现了内在本质上的不稳定场景,如梯度消失和梯度爆炸。 二、梯度消失(vanishing gradient proble
阅读全文
posted @ 2018-12-04 14:29
posted @ 2018-12-04 14:29
posted @ 2018-11-27 21:43
posted @ 2018-11-24 14:52
posted @ 2018-06-03 16:20