RNN 梯度消失/爆炸问题的解决方法

https://blog.csdn.net/cindy_1102/article/details/89010066

一、既然我们已经对消失梯度问题的本质和它在深度神经网络中的表现有了直观的认识,那么让我们关注一个简单而实用的启发式方法来解决这些问题。 为了解决梯度爆炸的问题,Thomas Mikolov首先引入了一个简单的启发式解决方案,当梯度爆炸时,将梯度裁剪为一个小数值。也就是说,当它们达到某个阈值时,就会被重新设置为一个小数值.
二、LSTM能保留信息,所以一定程度上能解决梯度消失
复制代码
那梯度消失/爆炸问题仅是RNN才会出现的问题吗?

1、不是,它是所有神经网络共性的问题,包括前向和卷积神经网络,特别是深度神经网络。

  原因:

    1、由于链式法则或非线性激活函数,当梯度回传的时候,梯度会变得很小。

    2、靠近输入层的网络学习的较为缓慢。

  解决办法:

    前向和卷积神经网络增加更多直接的链接,比如残差网络。



复制代码

 

 

posted on   TMatrix52  阅读(499)  评论(0编辑  收藏  举报

编辑推荐:
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

点击右上角即可分享
微信分享提示