【深度学习】学习率的一些问题思考
下午炼丹的时候, 遇到两个问题:
精度很正常的向上攀升, 但是损失函数确实先急剧上升, 再缓缓下降趋于平滑
损失函数和精度趋于稳定后的突然抖动
其实都是学习率的原因, 我用的优化器是adam,adam对学习率的敏感度较低, 学习率设成1e-2, 1e-3, 1e-4即可。
一开始设成0.5对Adam太大了,如果是sgd的话设成0.5比较合适。
至于第一幅图, 神经网络在初始化时其实已经有一个相对较小的损失函数了(初始的权重值在一个合理范围内), 而过大的学习率反而使得权重跑出了这个合理范围
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现
· 25岁的心里话