随笔分类 -  目标检测

摘要:Motivation DMP就是先检测整个人,再检测四肢,然后综合两者的信息去判断。 因为HOG特征提取比较死板,一定要是一个人,动作幅度改变不能太大(比如站立的人,就一种姿态),但是目标很可能存在多种形变。因此引出了parts models使用组件激励得分去修正root得分(整体得分) 流程 采用 阅读全文
posted @ 2020-09-03 14:53 Parallax 阅读(313) 评论(0) 推荐(0) 编辑
摘要:1.一次并行计算一个batch,因此所有的计算过程产生的tensor多了第一维batch_size 2.源码实现大量用到了python的广播功能(broadcasting),实现了不同维度数组间的直接计算 3.tensor之间的各种拼接变换组合 4.还有经常用的tensor.max()函数,可以输出 阅读全文
posted @ 2020-09-02 00:11 Parallax 阅读(170) 评论(0) 推荐(0) 编辑
摘要:交并比IoU衡量的是两个区域的重叠程度,是两个区域重叠部分面积占二者总面积(重叠部分只计算一次)的比例。 如下图,两个矩形框的IoU是交叉面积(中间图片红色部分)与合并面积(右图红色部分)面积之比。 IoU数值与box重叠度的关系 注意:IoU=0.5 == 2/3/(1/3+2/3+1/3)时,已 阅读全文
posted @ 2020-09-01 09:38 Parallax 阅读(563) 评论(0) 推荐(0) 编辑
摘要:FCOS: Fully Convolutional One-Stage Object Detection 特点:全卷积,单阶段,类似于语义分割的逐像素预测 优点:无anchor box, 无proposal。设计复杂度大大降低。 避免了训练时计算IOU,更重要的是避免了所有与anchor box相关 阅读全文
posted @ 2020-06-12 14:30 Parallax 阅读(461) 评论(0) 推荐(0) 编辑
摘要:将目标检测框的检测定义为其边界框中心点,利用 关键点估计 寻找中心点,然后其他的属性(如单目3D定位,姿势估计以及方向等)都基于中心点信息直接回归。 不需要像cornerNet那样去group和separate. 但是3D目标检测的深度depth和航向Orientation都不容易直接回归。 航向: 阅读全文
posted @ 2020-06-12 14:29 Parallax 阅读(409) 评论(0) 推荐(0) 编辑
摘要:解决什么问题? 1.注意力偏移 模型对具有良好视野的物体具有较高的注意,而一定程度忽视了其他目标。表现在:在靠近目标边界的区域位置存在很大区域不必要的高得分. 认为目标中心的anchor point和边缘的anchor point有相同的表达力是不合理的。一顿操作其实就是给每个附近高得分样本提出了一 阅读全文
posted @ 2020-06-12 14:24 Parallax 阅读(500) 评论(0) 推荐(0) 编辑
摘要:基于关键点keypoint(point数目直接基于图像空间像素数)的anchor free目标检测算法: cornertNet centerNet ExtremeNet 基于锚点anchor point(point数目基于特征空间像素数)的anchor free目标检测算法: DenseBox FC 阅读全文
posted @ 2020-06-12 11:25 Parallax 阅读(436) 评论(1) 推荐(0) 编辑
摘要:动机:实际训练时,由于batch都很小,因此每次BN的效果并没这么好。希望BN时能解决这个batch_size的影响。 https://blog.csdn.net/u014380165/article/details/79810040 https://www.cnblogs.com/jins-not 阅读全文
posted @ 2020-05-27 19:41 Parallax 阅读(144) 评论(0) 推荐(0) 编辑
摘要:IOU作为距离度量时,并不能反映两者的重合姿态。而且对于IOU=0的情况不能反映两个box的距离有多远。 1. 预测的检测框如果和真实物体的检测框没有重叠(没有交集)的话,我们从IoU的公式可以看出,IoU始终为0且无法优化,也就是如果算法一开始检测出来的框很离谱,根本没有和真实物体发生交集的话,算 阅读全文
posted @ 2020-05-27 19:12 Parallax 阅读(463) 评论(0) 推荐(0) 编辑
摘要:先obj_score置信度抑制过滤得分低的box,然后对剩下的做NMS抑制。 NMS抑制时仅仅使用置信得分(这个score = obj_score * cls_score)来排序,依次与类别内置信度高的box做IOU抑制。 NMS流程: 1. 先 分类别 按置信度排序,放到一个集合A中 2. 每一类 阅读全文
posted @ 2020-05-27 16:46 Parallax 阅读(611) 评论(0) 推荐(0) 编辑
摘要:1. 图像/特征金字塔:通过输入多尺度的图像获得不同尺度的特征图。 有效但是耗时长 2. 卷积核金字塔:对特征图用不同尺度的卷积核滑窗卷积,得到不同尺度的输出。 通常会与图像/特征金字塔联合使用 3. anchor金字塔:比如Faster RCNN中用多尺度的anchor来回归目标的位置。 更经济。 阅读全文
posted @ 2020-05-21 13:22 Parallax 阅读(315) 评论(0) 推荐(0) 编辑
摘要:Pyramid scene parsing network. In Proc. CVPR, pages 2881–2890, 2017 目的:扩大感受野,尽可能的利用全局上下文信息(某种程度上,可以认为感受野大小可以认为是对上下文信息利用的程度)。 做法: 1.对骨干提取的feature map(c 阅读全文
posted @ 2020-05-13 17:15 Parallax 阅读(2789) 评论(0) 推荐(0) 编辑
摘要:一、RPN: 首先图片经过backbone抽取特征图 然后,RPN网络首先对特征图做一下卷积,比如3*3*256,对于特征图上每个像素点就得到(1,256)的长向量,分两支分别判断: 1.是不是物体(因为只是区域建议,只需要区分是前景还是背景) 2.若是物体(即认为此号anchor是Positive 阅读全文
posted @ 2020-05-13 10:50 Parallax 阅读(349) 评论(0) 推荐(0) 编辑
摘要:cornerNet:https://blog.csdn.net/u014380165/article/details/83032273 cornernet-lite centerNet CentripetalNet FCOS:无anchor SAPD:目前最强anchor-free目标检测网络htt 阅读全文
posted @ 2020-04-21 13:34 Parallax 阅读(134) 评论(0) 推荐(0) 编辑
摘要:nms去除冗余框 下面是知乎上画的一组图,非常好理解。 检测得到四个坐标相关值和每一个bb所对应的类别的置信度,首先选定一个confidence阈值,将低于confidence的置信度给过滤掉,其次选定每一类最高的confience所对应的的检测框,计算同类其余剩下检测框的iou,iou阈值以上的删 阅读全文
posted @ 2019-12-18 17:48 Parallax 阅读(814) 评论(0) 推荐(0) 编辑
摘要:首先搞清yolo检测网络的输入输出: 最终输入的是416*416的三通道图像,输出的是三个尺度特征图上的预测张量。 第一尺度:13*13,对此特征图使用最大的三个anchor box,最终得到13*13*3*(4+1+num_class)维度的张量。此尺度的特征图对原图来说有最小的分辨率,这个anc 阅读全文
posted @ 2019-12-17 01:45 Parallax 阅读(229) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示