[Converge] Regularizaton Loss
Clone Loss
TensorFlow目标检测API中这些损失(loss)代表含义是什么
Losses/clone_loss:
仅在多个GPU上训练时才有意义,TensorFlow将创建模型的克隆以在每个GPU上训练并报告每个克隆的损失。如果您在单个GPU / CPU上训练模型,那么您将看到clone_loss
与TotalLoss
相同。
Regularizaton Loss
这个指标比较神奇,且好用。
regularization_loss 的作用是不让某一权很大,并调节其他权值,使得所有权值都相差在一定范围,使得各个神经元都能充分使用(个人观点)。
但是,对于“accuracy不上升,loss不下降”现象依旧是存在。这时候我就想呀,要想accuracy,loss变化(哪怕是变坏也好呀,总比基本不变强)
那weight 肯定变化呀,我就把regularization_loss给打印出来,发现regularization_loss,也不变化,这样说明我的算法存粹是在局部极小值那边
转悠,还亏我傻呆呆地看accuracy,loss log,还傻逼地调小learning_rate(regularization_loss变化都很小,说明learning_rat太小啦),
-
结论
开始训练时,为了迅速提高 accurcy,权重收敛不平衡,有点"急公近利" 的感觉;
达到一定程度后,"急公近利" 带来的好处是不能长久的,所以开始慢慢下降,也就是倾向于各个参数更能够充分地被利用到。这样,便提高了“模型潜能”,就能继续收敛下去。
为了防止处于最小极致点,若下一次training,提高lr以及batch size后,仍然不会有更好的效果,那么模型的这次训练性能也就这样了。
-
一个漂亮的训练轨迹
希望reg loss能接近高斯分布,可能起初的batch size需要再大一些,比如要接近label number。
End.
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律