CenterNet和CenterNet2笔记
CenterNet和CenterNet2笔记
CenterNet是基于anchor-free的一阶段检测算法
CenterNet2是CenterNet作者基于两阶段的改进
CenterNet(Object as point笔记添加[2022年4月14号])
以下笔记基于mmdetection代码库
- CenterNet网络结构笔记
- CenterNet的Centernet_head.py中的decode部分
centernet的paper
centernet的code
centernet2的paper
centernet2的code
centernet的实现思路:
centernet的预测结果会将输入进来的图片划分成不同的区域,每个
区域都会有一个特征点,centernet网络的预测结果就会判断这个特征
点是否有对应的物体,以及物体的种类和置信度,同时还会对特征点进行调整获得物体的中心坐标,回归预测获得物体的宽高
centernet的缺点:
centernet如果两个相同的类别的距离比较近那么他的中心点可能只有
一个不太好预测可能会参数误差
参考博客
- 见于已经有许多优秀的博客进行了CenterNet解读,这里之后复习的时候看这些博客就够了
- 博客1:带代码解读
Pytorch搭建自己的Centernet目标检测平台 - 博客2:比较全面
扔掉anchor!真正的CenterNet——Objects as Points论文解读 - 博客3:关于热点图的解读
说点Cornernet/Centernet代码里面GT heatmap里面如何应用高斯散射核 - 博客4:两个centernet的比较
论文也撞衫,你更喜欢哪个无锚点CenterNet? - 博客4:用官方的代码训练自己的数据集
(绝对详细)CenterNet训练自己的数据(pytorch0.4.1)
CenterNet2
框架图
之前传统的双阶段目标检测(以faster-rcnn为例)中的第一个阶段是使
用SPN网络参数是前景框还是背景框。并没有表明该框是前景还是背景的
可能性-->因为之前的spn网络并没有给这些框打分的功能。但是常见的
一阶段的算法有这个功能。
所以作者的做法是使用常见的一阶段充当two-stage的第一个stage,这样就可以对是属于前景还是背景进行打分--->方便后面进行删选出更少的区域处理给第二stage处理