神经网络梯度爆炸/消失以及改善方式(吴恩达)
摘要:
神经网络的传播(前向)过程如图,如果ω>1(即使是稍微大一点点),只要层数足够多最后会造成ω呈指数上升,这就是梯度爆炸;同理,当ω<1(即使是稍微小一点点),ω会快速缩小逼近0,这就是梯度消失 目前能稍微解决的方法是对ω进行合理地初始化 对于若干层数且每层的神经元数量不尽相同的情况下,比较好的取向是 阅读全文
posted @ 2022-07-28 18:33 Toriyung 阅读(58) 评论(0) 推荐(0) 编辑