随笔分类 -  reading papers

摘要:参考 https://blog.csdn.net/weixin_41765699/article/details/100118353 阅读全文
posted @ 2020-03-24 10:49 牧马人夏峥 阅读(1011) 评论(0) 推荐(0) 编辑
摘要:2019年的目标检测属于anchor free的一年,各类anchor free方法井喷,各种方式都有。在我看来,anchor free一定要有速度 优势(移动端部署),否则我干嘛不直接使用two-stage呢(像cornernet在GPU下速度只有5fps)? 不过学习了解一下相关思想还是必须的, 阅读全文
posted @ 2020-03-03 16:55 牧马人夏峥 阅读(687) 评论(0) 推荐(0) 编辑
摘要:当前针对目标检测算法有两种思路(暂时不考虑anchor free),其中一种是轻量化two-stage检测算法(如thundernet),另外一种就是 提高one-stage算法的精度,如使用更好的特征(特征融合、多尺度特征FPN等),包括基于SSD改进的refinedet,基于FPN的Retina 阅读全文
posted @ 2020-03-03 12:48 牧马人夏峥 阅读(2817) 评论(0) 推荐(0) 编辑
摘要:在移动端部署检测模型时,因为速度原因,通常采用的是轻量级的backbone+one stage detector的方式。我之前在项目里就是采用的 就是这种方案,但精度始终没法和two-stage相比,而two-stage又太慢,之前测过速度之后就没再考虑在移动端采用two-staget方案, 而th 阅读全文
posted @ 2020-03-02 18:55 牧马人夏峥 阅读(544) 评论(0) 推荐(0) 编辑
摘要:文本检测CTPN: https://www.cnblogs.com/skyfsm/p/9776611.html 文本识别CRNN:https://zhuanlan.zhihu.com/p/71506131 阅读全文
posted @ 2020-02-18 10:44 牧马人夏峥 阅读(158) 评论(0) 推荐(0) 编辑
摘要:一、paper&&github https://link.zhihu.com/?target=https%3A//arxiv.org/abs/1708.06519 https://github.com/mengrang/Slimming-pytorch 二、本文压缩方法 1、channel的裁剪原则 阅读全文
posted @ 2020-02-06 22:52 牧马人夏峥 阅读(467) 评论(0) 推荐(0) 编辑
摘要:https://arxiv.org/pdf/1911.09070.pdf Efficientnet的延续,提出了更快、更容易的多尺度融合BiFPN;提出了在backbone,feature network,box/class prediction上, 统一扩展模型的方式(仍然是调整width, re 阅读全文
posted @ 2020-02-02 16:41 牧马人夏峥 阅读(1515) 评论(0) 推荐(0) 编辑
摘要:https://arxiv.org/pdf/1905.11946.pdf https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet tf2实现https://github.com/calmisential/E 阅读全文
posted @ 2020-02-02 14:27 牧马人夏峥 阅读(916) 评论(0) 推荐(0) 编辑
摘要:cvpr2019 微软亚洲研究院的工作,主要思想是构建一个并行的多分辨率网络(有的应用只使用高分辨率特征,因此得名), 这是一个系列的工作,包括分类,检测,分割等。终于来了一个非nas的网络。。。 项目地址 https://github.com/HRNet 知乎上的介绍 https://zhuanl 阅读全文
posted @ 2020-01-31 23:48 牧马人夏峥 阅读(793) 评论(0) 推荐(0) 编辑
摘要:知乎上看到一篇博客https://zhuanlan.zhihu.com/p/99766566,讨论cnn中位置信息是如何学到的,感觉挺有意思的,就看了一下原文, 简单记录一下几个实验部分。 1、位置信息来自预训练模型 作者分别用预训练权重的vgg,resnet和posenet来对比,发现用了预训练权 阅读全文
posted @ 2020-01-30 17:31 牧马人夏峥 阅读(750) 评论(0) 推荐(0) 编辑
摘要:深度分离卷积一般使用的是3*3的卷积核,这篇论文在深度分离卷积时使用了多种卷积核,并验证了其有效性 1、大的卷积核能提高模型的准确性,但也不是越大越好。如下,k=9时,精度逐渐降低 2、 mixConv及其实现 挺简洁的,可直接替换深度分离卷积 3、有效性 4、MixConv设计 (1)G 的选择 阅读全文
posted @ 2019-08-04 12:47 牧马人夏峥 阅读(721) 评论(0) 推荐(0) 编辑
摘要:围绕四个点构造模型 1、扩大感受野 使用5*5卷积替换3*3来扩大感受野,在深度分离卷积中,pw与dw计算比为d/k^2,d为输出通道,k为 dw的卷积核,即增加dw的卷积核所带来的计算并不大。 在MobilenetV2中,使用了逆残差结构(两头小,中间大),但blazeblock中又回到了两头大、 阅读全文
posted @ 2019-08-04 10:41 牧马人夏峥 阅读(1181) 评论(0) 推荐(0) 编辑
摘要:1、MobilenetV3是通过NAS得到的,结合了v1,v2和MnasNet的结构,包括v1的dw,v2的linear bottleneck和逆残差结构, MnasNet的se结构(接在部分linear bottleneck之后)。 SEnet中,se模块及其在resnet中的放置位置如下 htt 阅读全文
posted @ 2019-05-20 16:34 牧马人夏峥 阅读(6626) 评论(0) 推荐(0) 编辑
摘要:1、SSH单阶人脸段检测器,在不同层检测不同scale的人脸,而不是使用mtcnn中金字塔的方式,从而实现加速。 2、SSH的整体结构,3个module的stride分别为8,16,32,使用不同的感受野,从而实现多尺度;三个Module独立训练、检测, 最终结果NMS。 3、检测模块和上下文模块。 阅读全文
posted @ 2019-01-27 17:22 牧马人夏峥 阅读(518) 评论(0) 推荐(0) 编辑
摘要:一、高效网络简介 图片来自https://zhuanlan.zhihu.com/p/53175018,高效网络的高效,直接的衡量目标是速度。 二、高效网络一览 CNN设计一般都是通过堆block的形式,下面只讨论每个模型的block 1、Mobilenet 首次使用了分离卷积(dw+pw,加速的核心 阅读全文
posted @ 2019-01-23 11:29 牧马人夏峥 阅读(348) 评论(0) 推荐(0) 编辑
摘要:一、高效的训练 1、Large-batch training 使用大的batch size可能会减小训练过程(收敛的慢?我之前训练的时候挺喜欢用较大的batch size),即在相同的迭代次数下, 相较于使用小的batch size,使用较大的batch size会导致在验证集上精度下降。文中介绍了 阅读全文
posted @ 2019-01-15 17:33 牧马人夏峥 阅读(565) 评论(0) 推荐(0) 编辑
摘要:ECCV2018 论文:Receptive Field Block Net for Accurate and Fast Object Detection 论文链接:https://arxiv.org/abs/1711.07767 代码链接:https://github.com/ruinmessi/R 阅读全文
posted @ 2019-01-13 17:22 牧马人夏峥 阅读(2496) 评论(1) 推荐(0) 编辑
摘要:Deformable conv赋予了CNN位置变换的能力,与普通卷积的对比如下。可以看到,在每个特征点上,会产生一个偏移,变成 不规则的卷积(感觉本质上,就是让CNN自己去学习感受野)。 思想来源于STN(Spatial Transform Network),但它们有着巨大的差别: STN得到的是全 阅读全文
posted @ 2019-01-12 16:56 牧马人夏峥 阅读(376) 评论(0) 推荐(0) 编辑
摘要:恢复内容开始 一、创新点 针对two-stage的速度慢以及one-stage精度不足提出的方法,refinedet 包括三个核心部分:使用TCB来转换ARM的特征,送入ODM中进行检测; 两步级连回归;过滤较多的负样本(容易分类的,类似于ohem)。 (1)anchor refine module 阅读全文
posted @ 2018-08-28 08:26 牧马人夏峥 阅读(3106) 评论(1) 推荐(0) 编辑
摘要:参考:http://blog.csdn.net/xbinworld/article/details/69049680 论文的关键在理解这句话: 先通过V中坐标(xtarget,ytarget)以此找到它在U中的坐标,然后再通过双线性插值采样出真实的像素值,放到(xtarget,ytarget)。 阅读全文
posted @ 2017-07-30 15:29 牧马人夏峥 阅读(154) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示