200字范文,内容丰富有趣,生活中的好帮手!
200字范文 > alexeyab darknet 编译_【目标检测实战】Darknet—yolov3模型训练(VOC数据集)

alexeyab darknet 编译_【目标检测实战】Darknet—yolov3模型训练(VOC数据集)

时间:2018-11-27 01:33:03

相关推荐

alexeyab darknet 编译_【目标检测实战】Darknet—yolov3模型训练(VOC数据集)

原文发表在:语雀文档

0.前言

本文为Darknet框架下,利用官方VOC数据集的yolov3模型训练,训练环境为:Ubuntu18.04下的GPU训练,cuda版本10.0;cudnn版本7.6.5。经过一晚上的训练,模型20个类别的mAP达到74%+。

主要模块:

概述源码编译功能测试模型训练模型验证

【概述】主要介绍yolo系列模型和darknet框架的关系、资源网站和数据集下载

【源码编译】主要是用官方源码和make命令编译出Linux下可执行文件,包括cuda+cudnn的设置

【功能测试】主要是用官网给出的demo和与训练模型来进行图片测试

【模型训练】主要是用darknet+yolov3模型训练VOC图像数据集(VOC+VOC) 【模型验证】即用训练好的模型,检测模型训练效果.

1.概述

官网:/

1.1 Yolo

Yolo系列模型(v1~v3)在近年些来的目标检测领域,非常火热!Yolo为:You only look once的缩写,同时也表明了其特点,只需要一次即可完成从图像分割到检测,故其被称为one-stage系列模型的鼻祖。

two-stage类目标检测模型如Fast R-CNN、Faster R-CNN

1.2 Darknet

yolo系列就是深度学习领域中用于目标检测的模型(yolov1~v3),那么darknet是什么?两者关系如何?darknet是作者用c和cuda编写的用于深度学习模型训练的框架,支持CPU和GPU训练,是个非常简单轻量级框架,就和Tensorflow,Mxnet,Pytorch,Caffe一样,虽然功能没有它们多,不过小也有小的优势,如果你会c语言,可以对其进行充分地利用和改造,或者读读源码看一下其实现,也会收货满满!So,总结一下:Darknet是深度学习框架,yolov1~v3是yolo系列的目标检测模型

1.3 资源下载

官网

/

源码

Darknet源码: /pjreddie/darknet

Darknet是用纯c和cuda编写的,要想用darknet来训练模型,最好用Linux/Unix系统,官方也提供了python的接口,如果是Windows系统,可以利用网友开源实现:/AlexeyAB/darknet

可以直接下载zip包darknet-master.zip也可直接执行

git clone/pjreddie/darknet将源码下载到本地

权重文件

yolov3-tiny.weights

yolov2.weights

yolov3.weights

darknet53.conv.74

VOC数据集

VOCtrainval_11-May-.tar

VOCtrainval_06-Nov-.tar

VOCtest_06-Nov-.tar

其他:

YOLO-V3可视化训练过程中的参数,绘制loss、IOU、avg Recall等的曲线图

AlexyAB大神总结的优化经验

2.源码编译

2.1 编辑Makefile

指定是否使用GPU在执行make指令编译之前,需要编辑一下makefile,来指定是否需要用GPU(cuda),如果用cuda,是否需要用cudnn加速;是否需要用opencv等。我这里是用GPU且需要用CUDNN加速的,不使用OpenCV。 Makefile的前5行如下,这5项内容0表示不启用,1表示启用,可根据需求自己配置。

GPU 是否启用GPU1CUDNN 是否启用CUDNN加速,若GPU = 1则CUDNN可选1或0;GPU=0则CUDNN=0OPENCV 是否启用OpenCV,启用的话需先编译安装好,启用可支持对视频和图像流文件处理OPENMP 是否启动多核CPU来加速Yolo,如果是用CPU训练,建议开启=1DEBUG 表示编译的Yolo版本为是否为DEBUG版

如果不使用GPU则GPU=0,CUDNN=0;还有一点需注意,如果在shell执行nvcc找不到命令(没有添加到环境变量),则需要将nvcc命令的全路径写出来指定cuda的路径如果不使用GPU,则此步可忽略,如果使用GPU,则需要指定cuda路径。官方的Makefile默认的cuda路径为:/usr/local/cuda,如果你安装了多个cuda,或者cuda路径更改过,则需要指定你的cuda路径,这里需要改两处:51行的COMMON和53行的LDFAGS

2.2 执行make

执行make编译完成后,在项目主目录下生成可执行的darknet文件。然后我们就可以用这个可执行文件来进行模型训练和测试了!

3.功能测试

将下载好的权重文件放入主目录下,然后cd到该目录下执行:

./darknet detect cfg/yolov3.cfg yolov3.weights data/dog.jpg

如果你看到如下输出,且在主目录下找到一张predictions.jpg的图片,则执行成功,表明上一步骤中编译的darknet可以正常使用。

你也可以指定一个阈值,yolo默认输出置信度>0.25的预测框,你也可以自行指定:

./darknet detect cfg/yolov3.cfg yolov3.weights data/dog.jpg -thresh 0.45

-thresh 0.45表示:置信度低于45%的预测框都不会被输出。

除了使用经典的yolov3模型外,你还可以换一个模型尝试,譬如yolov3-tiny.weights

./darknet detect cfg/yolov3-tiny.cfg yolov3-tiny.weights data/dog.jpg

当然,也可以通过连接摄像头实现实时视频画面预测。(需要编译时添加opencv)

./darknet detector demo cfg/coco.data cfg/yolov3.cfg yolov3.weights <video file>

4.模型训练

4.1 数据准备

模型训练前首先准备数据集,我们用VOC数据集,将VOC数据集解压,解压后共同存放在VOCevkit文件夹中,我将VOCevkit放在了darknet主文件夹/data/VOC/下。 cd到/VOC目录下,下载voc_label.py ,并运行:

python voc_label.py

可以将该脚本复制到/scripts下留作备份

文件夹下会生成7个.txt文件:

如果你的voc_label.py脚本是从官网wget /media/files/voc_label.py下载的,则需要在脚本57行处额外加上如下两行内容:

os.system("cat _train.txt _val.txt _train.txt _val.txt > train.txt")os.system("cat _train.txt _val.txt _test.txt _train.txt _val.txt > train.all.txt")

目的:将的训练和验证图像+的图像都放入了train.txt用于集中训练

4.2 修改配置文件voc.data

配置cfg/voc.data,来确定你需要检测的目标类别数量和名称;修改train和valid的图片资源路径。训练资源指向train.txt测试/验证资源指向_test.txt

VOC数据集默认的类别数量为20个,名称在data/voc.names中:

我这里使用默认的20个类别,所以无需修改;如果,你只想检测其中的几个类别,譬如person和car,那么可以设置voc.data中classes=2,names只保留person和car这两种,不过后面相应的需要更改yolov3-voc.cfg里的卷积层配置等。

4.3 修改yolov3-voc.cfg

yolov3-voc.cfg文件定义了yolo的卷积神经网络模型,和超参数配置等。这里需要注意,训练时需要将#Testing区块下的batch和subvisions注释掉;测试和验证时则放开注释,同时注释掉#Training区块下的内容。 训练时,可以根据自己GPU的内存来设置批的大小batch,可设为16、32、64、128 验证时,batch和subvisions同时设为1即可。

4.4 开始训练

cd回项目主目录,将darknet53.conv.74权重放入主目录下,运行:

./darknet detector train cfg/voc.data cfg/yolov3-voc.cfg darknet53.conv.74

如果报错提示cuda内存溢出,可以降低batch,再次运行;运行过程中可以通过nvidia-smi查看显存占用情况:

训练过程中会持续往backup/下生成权重文件,如:yolov3-voc_100.weights、yolov3-voc_200.weights....

5.模型验证

检验生成的模型权重文件、测试准确率和map等指标。验证前需要将yolov3-voc.cfg中的batch和subdivisions都改成1。然后找到需要测试的权重文件,默认权重文件保存在:项目目录/bakcup/下,我选择这个yolov3-voc_10000.weights,训练大约一个晚上12小时左右,loss在0.6多。

5.1 测试

测试一

我们从VOC数据集中随便找一找图片来测试一下,这里我选取000275.jpg放入主目录下

运行:

./darknet detector test cfg/voc.data cfg/yolov3-voc.cfg backup/yolov3-voc_10000.weights 000275.jpg

运行结束会在控制台打印出标注出的目标类别以及置信度、同时会在目录下生成一张标注图片:predictions.jpg**

测试二

再随便找一张图片试试

./darknet detector test cfg/voc.data cfg/yolov3-voc.cfg backup/yolov3-voc_10000.weights data/person.jpg

5.2 验证

测试只能一张张地直观感受下模型的训练效果,看看标注出的目标是否正确,通过验证才能确定模型的整体训练效果,验证时会用模型对所有的4952张测试集图片进行预测,同时与正确结果进行比对,得出一个模型预测准确率。

验证测试集

可以运行以下脚本进行验证:

./darknet detector valid cfg/voc.data cfg/yolov3-voc.cfg backup/yolov3-voc_10000.weights

验证完会在results文件夹下生成20个类别的验证结果txt文件

默认的文件命名规则是:'comp4_det_test_' + '类别名称' + .txt,如bird类生成comp4_det_test_bird.txt文件。

如图,第一列000053表示图像编号;第二列为置信度;后4列为检测出的目标框坐标

计算map

计算map,我们需要两个python文件:

voc_eval.pycompute_mAP.py

其中voc_eval.py是github上开源项目的代码voc_eval.py;compute_mAP.py需要我们自己编写

voc_eval.py我们为了适配darknet中voc数据集的验证,需要对源码做几处修改:a.源码第9行:import cPickle改为:

import _pickle as cPickle

因为源码是python2.x版本,如果python3.x版本的运行会报错,故需要修改。

b.源码103行:imagenames ``=`` [x.strip() ``for`` x ``in`` lines]改为:

imagenames = [x.strip().split('/')[-1].split('.')[0] for x in lines]

这个主要是为了方便适配_test.txt,因为我们验证时采用的是_test.txt中的测试集图片,文件中存放的是图片的全路径,而imagenames需要用的是文件名、所以需要将全路径做个转换,截取到文件名。

c.115行with`` ``open``(cachefile, ``'w'``) ``as`` f:和 119行with`` ``open``(cachefile, ``'r'``) ``as f:改成:

with open(cachefile, 'wb') as f:with open(cachefile, 'rb') as f:

如果不修改成‘wb’和‘rb’存储二进制格式,运行时会报错

compute_mAP.py新建compute_mAP.py文件,用于调用voc_eval.py,内容如下:

from voc_eval import voc_evalimport osmap_ = 0# classnames填写训练模型时定义的类别名称classnames = ['aeroplane','bicycle','bird','boat','bottle','bus','car','cat','chair','cow','diningtable','dog','horse','motorbike','person','pottedplant','sheep','sofa','train','tvmonitor']for classname in classnames:ap = voc_eval('../results/{}.txt', '../data/VOC/VOCdevkit/VOC/Annotations/{}.xml', '../data/VOC/_test.txt', classname, '.')map_ += ap#print ('%-20s' % (classname + '_ap:')+'%s' % ap)print ('%s' % (classname + '_ap:')+'%s' % ap)# 删除临时的dump文件if(os.path.exists("annots.pkl")):os.remove("annots.pkl")print("cache file:annots.pkl has been removed!")# 打印mapmap = map_/len(classnames)#print ('%-20s' % 'map:' + '%s' % map)print ('map:%s' % map)

我这里在项目主目录下新建了一个【yolo-compute-util】文件夹,将两个.py文件放在文件夹中,cd /yolo-compute-util,然后运行:python compute_mAP.py即可根据results中的验证结果统计出各个类别的ap,以及汇总的map。

可以看见,经过1晚上的训练,我们的模型——yolov3-voc_10000.weights的mAP是0.740,虽然没有达到yolov2系列76.8+的水平,不过一晚上的训练能达到如此程度,也是挺高了。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。