[Converge] Regularizaton Loss

Clone Loss

TensorFlow目标检测API中这些损失(loss)代表含义是什么

Losses/clone_loss:

仅在多个GPU上训练时才有意义,TensorFlow将创建模型的克隆以在每个GPU上训练并报告每个克隆的损失。如果您在单个GPU / CPU上训练模型,那么您将看到clone_lossTotalLoss相同。

 

 

Regularizaton Loss

这个指标比较神奇,且好用。

regularization_loss 的作用是不让某一权很大,并调节其他权值,使得所有权值都相差在一定范围,使得各个神经元都能充分使用(个人观点)。

 

但是,对于“accuracy不上升,loss不下降”现象依旧是存在。这时候我就想呀,要想accuracy,loss变化(哪怕是变坏也好呀,总比基本不变强)

那weight 肯定变化呀,我就把regularization_loss给打印出来,发现regularization_loss,也不变化,这样说明我的算法存粹是在局部极小值那边

转悠,还亏我傻呆呆地看accuracy,loss log,还傻逼地调小learning_rate(regularization_loss变化都很小,说明learning_rat太小啦),

 

 

  • 结论

开始训练时,为了迅速提高 accurcy,权重收敛不平衡,有点"急公近利" 的感觉;

达到一定程度后,"急公近利" 带来的好处是不能长久的,所以开始慢慢下降,也就是倾向于各个参数更能够充分地被利用到。这样,便提高了“模型潜能”,就能继续收敛下去。

为了防止处于最小极致点,若下一次training,提高lr以及batch size后,仍然不会有更好的效果,那么模型的这次训练性能也就这样了。

 

 

  • 一个漂亮的训练轨迹

希望reg loss能接近高斯分布,可能起初的batch size需要再大一些,比如要接近label number。

 

 End. 

posted @   郝壹贰叁  阅读(363)  评论(0编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律
点击右上角即可分享
微信分享提示