长尾分布paper阅读记录
分类:
1.Test-Agnostic Long-Tailed Recognition by Test-Time Aggregating Diverse Experts with Self-Supervision
url:https://arxiv.org/pdf/2107.09249.pdf
大家都开始整模型融合了,说明多样性+合适的融合方式确实在长尾上很有用。作者说自己的motivation是,test distribution其实有各种各样分布,所以可以用这些专家去进行组合,最终形成一个拟合得最好的。
2. Parametric Contrastive Learning
url:https://arxiv.org/abs/2107.12028
这篇Paper把supervised contrastive learning在long-tailed上做work了。我觉得work的主要原因是构造了propotypes,并且通过re-weight的方式,使得每一个instance都能让其他的每一类参与到优化。相较于原来的方法(Supervised Contrastive Learning),缓解了一些imbanlance的问题。由于存在科学的类别中心。所以需要更强的Aug和更久的训练时间。在Imgenet-LT上,训练400个epoch能达到57.0的点数。X101甚至能上60。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 从HTTP原因短语缺失研究HTTP/2和HTTP/3的设计差异
· 三行代码完成国际化适配,妙~啊~