Loading

CenterNet和CenterNet2笔记

CenterNet和CenterNet2笔记

CenterNet是基于anchor-free的一阶段检测算法
CenterNet2是CenterNet作者基于两阶段的改进

CenterNet(Object as point笔记添加[2022年4月14号])

以下笔记基于mmdetection代码库

  1. CenterNet网络结构笔记
  2. CenterNet的Centernet_head.py中的decode部分

centernet的paper
centernet的code
centernet2的paper
centernet2的code

centernet的实现思路:
centernet的预测结果会将输入进来的图片划分成不同的区域,每个
区域都会有一个特征点,centernet网络的预测结果就会判断这个特征
点是否有对应的物体,以及物体的种类和置信度,同时还会对特征点进行调整获得物体的中心坐标,回归预测获得物体的宽高

centernet的缺点:

centernet如果两个相同的类别的距离比较近那么他的中心点可能只有
一个不太好预测可能会参数误差

参考博客

CenterNet2

框架图

之前传统的双阶段目标检测(以faster-rcnn为例)中的第一个阶段是使
用SPN网络参数是前景框还是背景框。并没有表明该框是前景还是背景的
可能性-->因为之前的spn网络并没有给这些框打分的功能。但是常见的
一阶段的算法有这个功能。

所以作者的做法是使用常见的一阶段充当two-stage的第一个stage,这样就可以对是属于前景还是背景进行打分--->方便后面进行删选出更少的区域处理给第二stage处理

abstact中的说明

作者与一阶段,传统两阶段,以及自己方法的比较

作者这里使用的评估也是一步

总览

关于损失函数以及实验部分可以查看论文

posted @ 2021-04-06 12:07  zranguai  阅读(3299)  评论(0编辑  收藏  举报