目标检测学习_1(用opencv自带hog实现行人检测)
本文主要介绍下opencv中怎样使用hog算法,因为在opencv中已经集成了hog这个类。其实使用起来是很简单的,从后面的代码就可以看出来。本文参考的资料为opencv自带的sample。
关于opencv中hog的源码分析,可以参考本人的另一篇博客:opencv源码解析之(6):hog源码分析
开发环境:opencv2.4.2+Qt4.8.2+ubuntu12.04+QtCreator2.5.
实验功能:
单击Open Image按钮,选择需要进行人检测的一张图片,确定后自动显示出来。该图片的大小没限制。
单击People Detect按钮,则程序会自动对该图片进行行人检测,且将检测到的效果显示出来,即用1个矩形框将行人框出来。
单击Close按钮,退出程序。
实验说明:
1. hog描述子在opencv中为HOGDescriptor。
2. 可以调用该描述子setSVMDetector方法给用于对hog特征进行分类的svm模型的系数赋值,这里的参数为HOGDescriptor::getDefaultPeopleDetector()时表示采用系统默认的参数,因为这些参数是用很多图片训练而来的。
3. 对输入图片进行行人检测时由于图片的大小不一样,所以要用到多尺度检测。这里是用hog类的方法detectMultiScale。参数解释如下:
HOGDescriptor::detectMultiScale(const GpuMat& img, vector<Rect>& found_locations, doublehit_threshold=0, Size win_stride=Size(), Size padding=Size(), double scale0=1.05, int group_threshold=2)
该函数表示对输入的图片img进行多尺度行人检测 img为输入待检测的图片;found_locations为检测到目标区域列表;参数3为程序内部计算为行人目标的阈值,也就是检测到的特征到SVM分类超平面的距离;参数4为滑动窗口每次移动的距离。它必须是块移动的整数倍;参数5为图像扩充的大小;参数6为比例系数,即滑动窗口每次增加的比例;参数7为组阈值,即校正系数,当一个目标被多个窗口检测出来时,该参数此时就起了调节作用,为0时表示不起调节作用。
4. 最后对检测出来的目标矩形框,要采用一些方法处理,比如说2个目标框嵌套着,则选择最外面的那个框。 5. 因为hog检测出的矩形框比实际人体框要稍微大些,所以需要对这些矩形框大小尺寸做一些调整。
实验结果: 图片1效果:
图片2效果:
图片3效果:
图片4效果:
实验主要部分代码(附录有工程code下载链接):
#include "dialog.h" #include "ui_dialog.h" #include <QtCore> #include <QtGui> Dialog::Dialog(QWidget *parent) : QDialog(parent), ui(new Ui::Dialog) { ui->setupUi(this); } Dialog::~Dialog() { delete ui; } void Dialog::on_openButton_clicked() { QString img_mame = QFileDialog::getOpenFileName(this, "Open img", "../people", tr("Image Files(*.png *.jpg *.bmp *.jpeg)")); img = imread( img_mame.toAscii().data() ); imwrite("../hog_test.jpg", img); ui->textBrowser->setFixedSize(img.cols, img.rows); ui->textBrowser->append("<img src=../hog_test.jpg>"); } void Dialog::on_detectButton_clicked() { vector<Rect> found, found_filtered; cv::HOGDescriptor people_dectect_hog; //采用默认的已经训练好了的svm系数作为此次检测的模型 people_dectect_hog.setSVMDetector(cv::HOGDescriptor::getDefaultPeopleDetector()); //对输入的图片img进行多尺度行人检测 //img为输入待检测的图片;found为检测到目标区域列表;参数3为程序内部计算为行人目标的阈值,也就是检测到的特征到SVM分类超平面的距离; //参数4为滑动窗口每次移动的距离。它必须是块移动的整数倍;参数5为图像扩充的大小;参数6为比例系数,即测试图片每次尺寸缩放增加的比例; //参数7为组阈值,即校正系数,当一个目标被多个窗口检测出来时,该参数此时就起了调节作用,为0时表示不起调节作用。 people_dectect_hog.detectMultiScale(img, found, 0, Size(8, 8), Size(32, 32), 1.05, 2); //从源码中可以看出: //#define __SIZE_TYPE__ long unsigned int //typedef __SIZE_TYPE__ size_t; //因此,size_t是一个long unsigned int类型 size_t i, j; for (i = 0; i < found.size(); i++ ) { Rect r = found[i]; //下面的这个for语句是找出所有没有嵌套的矩形框r,并放入found_filtered中,如果有嵌套的 //话,则取外面最大的那个矩形框放入found_filtered中 for(j = 0; j <found.size(); j++) if(j != i && (r&found[j])==r) break; if(j == found.size()) found_filtered.push_back(r); } //在图片img上画出矩形框,因为hog检测出的矩形框比实际人体框要稍微大些,所以这里需要 //做一些调整 for(i = 0; i <found_filtered.size(); i++) { Rect r = found_filtered[i]; r.x += cvRound(r.width*0.1); r.width = cvRound(r.width*0.8); r.y += cvRound(r.height*0.07); r.height = cvRound(r.height*0.8); rectangle(img, r.tl(), r.br(), Scalar(0, 255, 0), 3); } imwrite("../hog_test_result.jpg", img); ui->textBrowser->clear(); ui->textBrowser->append("<img src=../hog_test_result.jpg>"); } void Dialog::on_closeButton_clicked() { close(); }
实验总结: 从实验的结果来看,图片检测的准确率一般,当人体遮挡情况比较严重,且背景比较复杂时,有些误检和漏检。不过程序的检查速度还行,因为源码中用做了些优化处理。