目标检测YOLOv1-v3——学习笔记

Fast RCNN更准一些、其损失函数比YOLO简单。

YOLO更快

 

 YOLO(You Only Look Once)

简介:

 

测试过程:

 

 

 

 

训练过程:

 

坐标、含有、不含、类别预测

目标检测的效果准确率

mAP:值1-100,m是mean。


 

YOLO v2

YOLO v2: https://arxiv.org/abs/1612.08242

 

 

 

 

 

 

 

改进部分:

1、使用了BN层提升了2%(Batch Normalization)。有助于规范化模型,提升收敛速度,可以在舍弃dropout优化后依然不会过拟合。

2、以往是Google Net提取特征网络

3、没有用全连接层。若是使用全连接层,为了保证网络尺寸,输入图片大小是要固定的。使用了类似Faster RCNN中的锚点预测。

4、k-means聚类,没有使用欧式距离。

5、预测定位,限制。sigmoid函数

6、多尺度特征融合

7、多尺度训练

8、特征提取网络改进。Google net改进为Darknet.


 YOLO v2测试过程和v1基本一致。

 YOLO v2训练过程:

因为最后要用到的是448×448。

训练过程:

损失函数:


 

YOLO v3

YOLO: Real-Time Object Detection  https://pjreddie.com/darknet/yolo/

YOLO v3使用的是残差网络

【其他资料】

研究 | YOLO一眼就能认出你:看一个神经网络如何全视野实时检测目标 - 简书 https://www.jianshu.com/p/ec2f762e6246

基于深度学习的目标检测 - 代码学习者coding - 博客园 https://www.cnblogs.com/gujianhan/p/6035514.html

OverFeat是用CNN统一来做分类、定位和检测的经典之作。

基于区域提名的方法,包括R-CNN、SPP-net、Fast R-CNN、Faster R-CNN、R-FCN。

端到端(End-to-End)的目标检测方法,这些方法无需区域提名,包括YOLO和SSD。

yolo升级版 - fangxiangeng的博客 - CSDN博客 https://blog.csdn.net/fangxiangeng/article/details/80623129

posted @ 2018-12-22 21:18  ostartech  阅读(647)  评论(0编辑  收藏  举报