长尾分布paper阅读记录

分类:
1.Test-Agnostic Long-Tailed Recognition by Test-Time Aggregating Diverse Experts with Self-Supervision
url:https://arxiv.org/pdf/2107.09249.pdf
大家都开始整模型融合了,说明多样性+合适的融合方式确实在长尾上很有用。作者说自己的motivation是,test distribution其实有各种各样分布,所以可以用这些专家去进行组合,最终形成一个拟合得最好的。
2. Parametric Contrastive Learning
url:https://arxiv.org/abs/2107.12028
这篇Paper把supervised contrastive learning在long-tailed上做work了。我觉得work的主要原因是构造了propotypes,并且通过re-weight的方式,使得每一个instance都能让其他的每一类参与到优化。相较于原来的方法(Supervised Contrastive Learning),缓解了一些imbanlance的问题。由于存在科学的类别中心。所以需要更强的Aug和更久的训练时间。在Imgenet-LT上,训练400个epoch能达到57.0的点数。X101甚至能上60。

posted @   John_Ran  阅读(479)  评论(0编辑  收藏  举报
编辑推荐:
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 从HTTP原因短语缺失研究HTTP/2和HTTP/3的设计差异
· 三行代码完成国际化适配,妙~啊~
点击右上角即可分享
微信分享提示