训练集、测试集loss容易出现的问题总结
1、
train loss 不断下降,test loss不断下降:说明网络仍在学习;
train loss 不断下降,test loss趋于不变:说明网络过拟合;
train loss 趋于不变,test loss不断下降:说明数据集100%有问题;
train loss 趋于不变,test loss趋于不变:说明学习遇到瓶颈,需要减小学习率或批量数目;或者是数据集有问题(数据集标注错误数据比较多)
train loss 不断上升,test loss不断上升:说明网络结构设计不当,训练超参数设置不当,数据集经过清洗等问题。
2、训练时损失出现nan的问题,可能导致梯度出现nan的三个原因:
梯度爆炸。也就是说梯度数值超出范围变成nan. 通常可以调小学习率、加BN层或者做梯度裁剪来试试看有没有解决。
损失函数或者网络设计。比方说,出现了除0,或者出现一些边界情况导致函数不可导,比方说log(0)、sqrt(0).
脏数据。可以事先对输入数据进行判断看看是否存在nan.
分类:
深度学习-杂记
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· 写一个简单的SQL生成工具
· AI 智能体引爆开源社区「GitHub 热点速览」
· C#/.NET/.NET Core技术前沿周刊 | 第 29 期(2025年3.1-3.9)
2018-05-14 TX2上yolov3精度和速度优化方向
2018-05-14 yolo原理学习
2018-05-14 ubuntu常用命令
2018-05-14 darknet源码学习
2018-05-14 关于模型优化的思考
2018-05-14 Batch Normalization层
2018-05-14 深度学习网络结构中超参数momentum了解