摘要: 之前的项目中使用了可形变卷积,感觉有效果,所以就具体看一下。 论文: http://openaccess.thecvf.com/content_ICCV_2017/papers/Dai_Deformable_Convolutional_Networks_ICCV_2017_paper.pdf代码:  阅读全文
posted @ 2020-07-14 16:03 西工大陈飞宇 阅读(2836) 评论(3) 推荐(3) 编辑
摘要: NMS(greedy NMS) 这个在faster rcnn和youlo都介绍过很传统自己看。 Soft NMS 不同于在NMS中采用单一阈值,对与最大得分检测结果M超过阈值的结果进行抑制,其主要考虑Soft-NMS,对所有目标的检测得分以相应overlap with M的连续函数进行衰减,具有较低 阅读全文
posted @ 2020-07-13 21:28 西工大陈飞宇 阅读(227) 评论(0) 推荐(0) 编辑
摘要: 目标检测任务的损失函数由Classificition Loss和Bounding Box Regeression Loss两部分构成。近几年来Bounding Box Regression Loss Function的演进过程,其演进路线是Smooth L1 Loss IoU LossGIoU Lo 阅读全文
posted @ 2020-07-13 20:10 西工大陈飞宇 阅读(447) 评论(3) 推荐(1) 编辑
摘要: 如果我们不使用过激活函数,那么输出将是输入的线性变换,无论最终多少层,都只是线性变换,为了增强神经网络学习任何函数的能力,需要在其中引入非线性的单元,这个单元就是激活函数。 激活函数大致分为两类,饱和和非饱和: 饱和激活函数 Sigmoid Sigmoid 是常用的非线性的激活函数,它的数学形式如下 阅读全文
posted @ 2020-07-13 12:10 西工大陈飞宇 阅读(402) 评论(0) 推荐(0) 编辑
摘要: 机器学习领域有个很重要的假设:独立同分布假设,就是假设训练数据和测试数据是满足相同分布的,这是通过训练数据获得的模型能够在测试集获得好的效果的一个基本保障。神经网络学习过程本质上是为了学习数据的分布,一旦训练数据与测试数据的分布不同,那么网络的泛化能力也大大降低;另一方面,一旦在mini-batch 阅读全文
posted @ 2020-07-10 11:09 西工大陈飞宇 阅读(335) 评论(0) 推荐(0) 编辑
摘要: Drop out 深度神经网络包含多个非线性隐藏层,这使得它能够学习输入和输出之间的复杂关系,但我们不可否认的是:在实际情况中,即使测试集和训练集来自同一分布,训练集仍会存在噪声,那么网络就会同时学习数据和噪声的分布,这样就会容易导致过拟合。 在机器学习中,我们通常采用模型组合来提高模型的性能。然而 阅读全文
posted @ 2020-07-08 20:36 西工大陈飞宇 阅读(977) 评论(0) 推荐(0) 编辑
摘要: Random erasing 论文名称:Random erasing data augmentation 论文地址:https://arxiv.org/pdf/1708.04896v2.pdf github: https://github.com/zhunzhong07/Random-Erasing 阅读全文
posted @ 2020-07-08 17:14 西工大陈飞宇 阅读(654) 评论(0) 推荐(0) 编辑
摘要: 参考博客https://blog.csdn.net/qiu931110/article/details/86684241 在多分类任务中我们往往无论是使用sigmod函数还是softmax函数,最终都要经过交叉熵函数计算loss: 、 最终在训练网络时,最小化预测概率和标签真实概率的交叉熵,从而得到 阅读全文
posted @ 2020-07-07 10:28 西工大陈飞宇 阅读(885) 评论(0) 推荐(0) 编辑
摘要: 参考博客:https://www.cnblogs.com/king-lps/p/9497836.html 在yolov3中可以使用focal loss,这是什么东西呢,这个loss主要是解决正负样本不均衡的问题的,该损失函数降低了大量简单负样本在训练中所占的权重,也可理解为一种困难样本挖掘。 原来的 阅读全文
posted @ 2020-07-06 18:21 西工大陈飞宇 阅读(323) 评论(0) 推荐(0) 编辑
摘要: 先说一下,做data augmentation的目的是为了减少噪声对模型的影响,希望模型真正学习到目标的特征,由于yolov3的该模块特别典型,故以此说明,就是包括以下部分: 在这之前先进行了图像融合,就是随机对图像融合,: 我们只看图像操作部分先确定融合后的图像为两个图像最大的w和h,然后以比例λ 阅读全文
posted @ 2020-07-06 17:56 西工大陈飞宇 阅读(552) 评论(0) 推荐(0) 编辑