[基础] DETR:End-to-End Object Detection with Transformers
名称
End-to-End Object Detection with Transformers
时间:20.05
机构:Facebook AI
TL;DR
文章提出一种称为DETR(Detection Transformer)的基于Transformer的检测器,相比于传统检测器不需要NMS以及anchor,仅需要少量object queries就可以同时推理出所有预测结果。
Method
Inference
参考下图,其中class预测(C + 1)个类别,多出来那个表示no object。box分量是直接预测框norm之后的中心点与宽高,没有anchor作为初始值。
Training Loss
类似于常规Detection任务训练,求N个Set Prediction的分类与box回归的Loss之和,其中匹配到no class的prediction loss权重设置的比较低。
关键在于如何知道每个prediction对应的GT,即如何求公式中的。这里用的方法比较暴力,直接针对每一次forward出的N个set prediction使用匈牙利匹配来计算与每个prediction对应的GT。而匈牙利匹配建立cost matrix时,每个位置的权值是参考class score以及与gt box iou共同决定。
Experiment
sine at attn表示输入一个预设的positional encoding map,learned at attn表示输入一个可学习的attention map。
总结与发散
首个使用Transformer将detection做到E2E的工作,整体思路比较简单,Loss部分设计比较暴力。
相关链接
官方代码:https://github.com/facebookresearch/detr
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 单元测试从入门到精通
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律