关于梯度消失,梯度爆炸的问题

  随着神经网络层数的增加,会出现梯度消失或者梯度爆炸的问题,下面细说下问什么会出现:

 

      起初的学习率固定。

      下面来看几组通过增加隐藏层层数后的学习率变化图:

   

  

   

    

   

     

 

 

    

   

 

posted @ 2017-10-20 14:59  Django's blog  阅读(286)  评论(0编辑  收藏  举报