教你使用pytorch-yolo训练KITTI数据集!

毕设的第二阶段,就是对融合后的图像进行目标检测,这里首先使用KITTI数据集的原始图像进行目标检测,代码使用的是u版pytorch-yolo : https://github.com/ultralytics/yolov3

 

一、环境配置

我使用的环境是 win10 + cuda 11.1 + python 3.8 +  pytorch1.6.0

 

二、数据准备

将数据集Annotations、JPEGImages复制到yolov3-master工程目录下的data文件夹下;同时新建两个文件夹,分别命名为ImageSets和labels,最后我们将JPEGImages文件夹复制粘贴一下,并将文件夹重命名为images

注意,JPEGImages中的文件格式为png,images中的文件格式为jpg,只需在CMD中使用 ren *.png *.jpg 即可完成批量转换

 

在工程的根目录下新建一个文件makeTxt.py

import osimport random trainval_percent = 0.1train_percent = 0.9xmlfilepath = 'data/Annotations'txtsavepath = 'data/ImageSets'total_xml = os.listdir(xmlfilepath) num = len(total_xml)list = range(num)tv = int(num * trainval_percent)tr = int(tv * train_percent)trainval = random.sample(list, tv)train = random.sample(trainval, tr) ftrainval = open('data/ImageSets/trainval.txt', 'w')ftest = open('data/ImageSets/test.txt', 'w')ftrain = open('data/ImageSets/train.txt', 'w')fval = open('data/ImageSets/val.txt', 'w') for i in list:    name = total_xml[i][:-4] + '\n'    if i in trainval:        ftrainval.write(name)        if i in train:            ftest.write(name)        else:            fval.write(name)    else:        ftrain.write(name) ftrainval.close()ftrain.close()fval.close()ftest.close()

运行makeTxt.py后, 在ImageSets得到四个文件,主要存储图片名称。

 

运行根目录下voc_label.py,得到labels的具体内容以及data目录下的train.txt,test.txt,val.txt,这里的train.txt得到文件名,还有文件的具体路径。train.txt和val.txt合并得到train.txt,test.txt作为验证集

 

 

voc_label.py的代码如下

import xml.etree.ElementTree as ETimport pickleimport osfrom os import listdir, getcwdfrom os.path import join sets = ['train', 'test', 'val'] classes = ["Car","Pedestrian","Cyclist"]  # 现在只有3类物体:车,行人,骑自行车的人  def convert(size, box):    dw = 1. / size[0]    dh = 1. / size[1]    x = (box[0] + box[1]) / 2.0    y = (box[2] + box[3]) / 2.0    w = box[1] - box[0]    h = box[3] - box[2]    x = x * dw    w = w * dw    y = y * dh    h = h * dh    return (x, y, w, h)  def convert_annotation(image_id):    in_file = open('data/Annotations/%s.xml' % (image_id))    out_file = open('data/labels/%s.txt' % (image_id), 'w')    tree = ET.parse(in_file)    root = tree.getroot()    size = root.find('size')    w = int(size.find('width').text)    h = int(size.find('height').text)     for obj in root.iter('object'):        #difficult = obj.find('difficult').text        cls = obj.find('name').text        # if cls not in classes or int(difficult) == 1:        #     continue        cls_id = classes.index(cls)        xmlbox = obj.find('bndbox')        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),             float(xmlbox.find('ymax').text))        bb = convert((w, h), b)        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')  wd = getcwd()print(wd)for image_set in sets:    if not os.path.exists('data/labels/'):        os.makedirs('data/labels/')    image_ids = open('data/ImageSets/%s.txt' % (image_set)).read().strip().split()    list_file = open('data/%s.txt' % (image_set), 'w')    for image_id in image_ids:        list_file.write('data/images/%s.jpg\n' % (image_id))        convert_annotation(image_id)    list_file.close()

 

三、修改配置文件

在data文件下新建kitti.data,配置内容如下:

classes=3train=data/train.txtvalid=data/test.txtnames=data/kitti.namesbackup=backup/eval=coco

 

再在data文件下新建kitti.names,配置内容如下:

CarPedestrianCyclist

 

修改cfg

       在原工程下cfg目录下有很多的yolov3网络结构,我们本次采用的是yolov3-tiny.cfg。

我们需要将cfg下的yolov3-tiny.cfg文件进行修改,修改内容如下:

首先找到yolo的那一栏,将其中的 classes改为你数据集的分类数(我这里是3),然后将每一个yolo上面的convolutional中的

改为 filters = 24 (3 * (5 + 分类数))

 

四、获取权重

     获取网络参数yolov3-tiny.weights,下载链接https://pjreddie.com/media/files/yolov3-tiny.weights,下载后导入weights文件夹下;同样还需要下载yolov3-tiny.conv.15,下载导入weights文件夹下,下载链接如下:https://pan.baidu.com/s/1nv1cErZeb6s0A5UOhOmZcA
提取码:t7vp

 

五、训练

 

训练后会得到两个模型

 
 
 

需要源代码的或者想了解更多的点击这里获取

 

此文转载文,著作权归作者所有,如有侵权联系小编删除!

 原文地址:https://blog.csdn.net/qq_34201858/article/details/108928793

 

 

posted @ 2020-10-06 15:09  湘九  阅读(1484)  评论(0编辑  收藏  举报