0.前言
本文为Darknet框架下,利用官方VOC数据集的yolov3模型训练,训练环境为: Ubuntu18.04下的GPU训练,cuda版本10.0;cudnn版本7.6.5。经过一晚上的训练,模型20个类别的mAP达到74%+。
主要模块:
- 概述
- 源码编译
- 功能测试
- 模型训练
- 模型验证
【概述】部分主要介绍yolo系列模型和darknet框架的关系、资源网站和数据集下载
【源码编译】主要是用官方源码和make命令编译出Linux下可执行文件,包括cuda+cudnn的设置
【功能测试】主要是用官网给出的demo和与训练模型来进行图片测试
【模型训练】主要是用darknet+yolov3模型训练VOC图像数据集(VOC2007+VOC2012)
【模型验证】即用训练好的模型,检测模型训练效果.
1.概述
1.1 Yolo
Yolo系列模型(v1~v3)在近年些来的目标检测领域,非常火热!Yolo为:You only look once的缩写,同时也表明了其特点,只需要一次即可完成从图像分割到检测,故其被称为one-stage系列模型的鼻祖。
屏幕截图_1.pngtwo-stage类目标检测模型如Fast R-CNN、Faster R-CNN
1.2 Darknet
yolo系列就是深度学习领域中用于目标检测的模型(yolov1~v3),那么darknet是什么?两者关系如何?
darknet是作者用c和cuda编写的用于深度学习模型训练的框架,支持CPU和GPU训练,是个非常简单轻量级框架,就和Tensorflow,Mxnet,Pytorch,Caffe一样,虽然功能没有它们多,不过小也有小的优势,如果你会c语言,可以对其进行充分地利用和改造,或者读读源码看一下其实现,也会收货满满!
So,总结一下:Darknet是深度学习框架,yolov1~v3是yolo系列的目标检测模型
1.3 资源下载
官网
源码
Darknet源码:
https://github.com/pjreddie/darknet
Darknet是用纯c和cuda编写的,要想用darknet来训练模型,最好用Linux/Unix系统,官方也提供了python的接口,如果是Windows系统,可以利用网友开源实现:https://github.com/AlexeyAB/darknet
可以直接下载zip包📎darknet-master.zip也可直接执行
git clone
https://github.com/pjreddie/darknet
将源码下载到本地
权重文件
yolov3-tiny.weights
yolov2.weights
yolov3.weights
darknet53.conv.74
VOC数据集
VOCtrainval_11-May-2012.tar
VOCtrainval_06-Nov-2007.tar
VOCtest_06-Nov-2007.tar
其他:
YOLO-V3可视化训练过程中的参数,绘制loss、IOU、avg Recall等的曲线图:https://blog.csdn.net/qq_34806812/article/details/81459982
AlexyAB大神总结的优化经验:
https://www.cnblogs.com/pprp/p/10204480.html
2.源码编译
2.1 编辑Makefile
指定是否使用GPU
在执行make指令编译之前,需要编辑一下makefile,来指定是否需要用GPU(cuda),如果用cuda,是否需要用cudnn加速;是否需要用opencv等。我这里是用GPU且需要用CUDNN加速的,不使用OpenCV。
Makefile的前5行如下,这5项内容0表示不启用,1表示启用,可根据需求自己配置。
- GPU 是否启用GPU1
- CUDNN 是否启用CUDNN加速,若GPU = 1则CUDNN可选1或0;GPU=0则CUDNN=0
- OPENCV 是否启用OpenCV,启用的话需先编译安装好,启用可支持对视频和图像流文件处理
- OPENMP 是否启动多核CPU来加速Yolo,如果是用CPU训练,建议开启=1
- DEBUG 表示编译的Yolo版本为是否为DEBUG版
屏幕截图_14.png
如果不使用GPU则GPU=0,CUDNN=0;还有一点需注意,如果在shell执行nvcc找不到命令(没有添加到环境变量),则需要将nvcc命令的全路径写出来
指定cuda的路径
如果不使用GPU,则此步可忽略,如果使用GPU,则需要指定cuda路径。官方的Makefile默认的cuda路径为:/usr/local/cuda,如果你装了多个cuda,但是有软连接指向正确的cuda文件夹路径:即/usr/local/cuda软连接到你需要的cuda文件夹,那么无需修改,保持/usr/local/cuda即可;否则需要指定你的cuda路径,这里需要改两处:51行的COMMON和53行的LDFAGS。
屏幕截图_15.png2.2 执行make
屏幕截图_16.png执行make编译完成后,在项目主目录下生成可执行的darknet文件。然后我们就可以用这个可执行文件来进行模型训练和测试了!
3.功能测试
将下载好的权重文件放入主目录下,然后cd到该目录下执行:
./darknet detect cfg/yolov3.cfg yolov3.weights data/dog.jpg
如果你看到如下输出,且在主目录下找到一张predictions.jpg的图片,则执行成功,表明上一步骤中编译的darknet可以正常使用。
屏幕截图_17.png你也可以指定一个阈值,yolo默认输出置信度>0.25的预测框,你也可以自行指定:
./darknet detect cfg/yolov3.cfg yolov3.weights data/dog.jpg -thresh 0.45
-thresh 0.45表示:置信度低于45%的预测框都不会被输出。
除了使用经典的yolov3模型外,你还可以换一个模型尝试,譬如yolov3-tiny.weights
./darknet detect cfg/yolov3-tiny.cfg yolov3-tiny.weights data/dog.jpg
当然,也可以通过连接摄像头实现实时视频画面预测。(需要编译时添加opencv)
./darknet detector demo cfg/coco.data cfg/yolov3.cfg yolov3.weights <video file>
4.模型训练
4.1 数据准备
模型训练前首先准备数据集,我们用VOC数据集,将VOC数据集解压,解压后共同存放在VOCevkit文件夹中,我将VOCevkit放在了darknet主文件夹/data/VOC/下。
cd到/VOC目录下,下载📎voc_label.py ,并运行:
python voc_label.py
可以将该脚本复制到/scripts下留作备份
文件夹下会生成7个.txt文件:
屏幕截图_17.png如果你的voc_label.py脚本是从官网wget https://pjreddie.com/media/files/voc_label.py下载的,则需要在脚本57行处额外加上如下两行内容:
os.system("cat 2007_train.txt 2007_val.txt 2012_train.txt 2012_val.txt > train.txt") os.system("cat 2007_train.txt 2007_val.txt 2007_test.txt 2012_train.txt 2012_val.txt > train.all.txt")
目的:将2007年的训练和验证图像+2012年的图像都放入了train.txt用于集中训练
4.2 修改配置文件voc.data
配置cfg/voc.data,来确定你需要检测的目标类别数量和名称;修改train和valid的图片资源路径。训练资源指向train.txt测试/验证资源指向2007_test.txt
屏幕截图_23.pngVOC数据集默认的类别数量为20个,名称在data/voc.names中:
屏幕截图_19.png我这里使用默认的20个类别,所以无需修改;如果,你只想检测其中的几个类别,譬如person和car,那么可以设置voc.data中classes=2,names只保留person和car这两种,不过后面相应的需要更改yolov3-voc.cfg里的卷积层配置等。
4.3 修改yolov3-voc.cfg
yolov3-voc.cfg文件定义了yolo的卷积神经网络模型,和超参数配置等。这里需要注意,训练时需要将#Testing区块下的batch和subvisions注释掉;测试和验证时则放开注释,同时注释掉#Training区块下的内容。
训练时,可以根据自己GPU的内存来设置批的大小batch,可设为16、32、64、128
验证时,batch和subvisions同时设为1即可。
4.4 开始训练
cd回项目主目录,将darknet53.conv.74权重放入主目录下,运行:
./darknet detector train cfg/voc.data cfg/yolov3-voc.cfg darknet53.conv.74
如果报错提示cuda内存溢出,可以降低batch,再次运行;运行过程中可以通过nvidia-smi查看显存占用情况:
屏幕截图_24.png训练过程中会持续往backup/下生成权重文件,如:yolov3-voc_100.weights、yolov3-voc_200.weights....
5.模型验证
检验生成的模型权重文件、测试准确率和map等指标。验证前需要将yolov3-voc.cfg中的batch和subdivisions都改成1。然后找到需要测试的权重文件,默认权重文件保存在:项目目录/bakcup/下,我选择这个yolov3-voc_10000.weights,训练大约一个晚上12小时左右,loss在0.6多。
屏幕截图.png5.1 测试
测试一
我们从VOC数据集中随便找一找图片来测试一下,这里我选取000275.jpg放入主目录下
000275.jpg
运行:
./darknet detector test cfg/voc.data cfg/yolov3-voc.cfg backup/yolov3-voc_10000.weights 000275.jpg
运行结束会在控制台打印出标注出的目标类别以及置信度、同时会在目录下生成一张标注图片:predictions.jpg
predictions.jpg测试二
再随便找一张图片试试
>./darknet detector test cfg/voc.data cfg/yolov3-voc.cfg backup/yolov3-voc_10000.weights data/person.jpg
5.2 验证
测试只能一张张地直观感受下模型的训练效果,看看标注出的目标是否正确,通过验证才能确定模型的整体训练效果,验证时会用模型对所有的4952张测试集图片进行预测,同时与正确结果进行比对,得出一个模型预测准确率。
验证测试集
可以运行以下脚本进行验证:
./darknet detector valid cfg/voc.data cfg/yolov3-voc.cfg backup/yolov3-voc_10000.weights
验证完会在results文件夹下生成20个类别的验证结果txt文件
默认的文件命名规则是:'comp4_det_test_' + '类别名称' + .txt,如bird类生成comp4_det_test_bird.txt文件。
屏幕截图_4.png如图,第一列000053表示图像编号;第二列为置信度;后4列为检测出的目标框坐标
计算map
计算map,我们需要两个python文件:
- voc_eval.py
- compute_mAP.py
其中voc_eval.py是github上开源项目的代码voc_eval.py;compute_mAP.py需要我们自己编写
voc_eval.py
我们为了适配darknet中voc数据集的验证,需要对源码做几处修改:
a.源码第9行:import cPickle
改为:
import _pickle as cPickle
因为源码是python2.x版本,如果python3.x版本的运行会报错,故需要修改。
b.源码103行: imagenames ``=`` [x.strip() ``for`` x ``in`` lines]
改为:
imagenames = [x.strip().split('/')[-1].split('.')[0] for x in lines]
这个主要是为了方便适配2007_test.txt,因为我们验证时采用的是2007_test.txt中的测试集图片,文件中存放的是图片的全路径,而imagenames需要用的是文件名、所以需要将全路径做个转换,截取到文件名。
c.115行:with`` ``open``(cachefile, ``'w'``) ``as`` f:
和 119行with`` ``open``(cachefile, ``'r'``) ``as f:
改成:
with open(cachefile, 'wb') as f:
with open(cachefile, 'rb') as f:
如果不修改成‘wb’和‘rb’存储二进制格式,运行时会报错
compute_mAP.py
新建compute_mAP.py文件,用于调用voc_eval.py,内容如下:
from voc_eval import voc_eval
import os
map_ = 0
# classnames填写训练模型时定义的类别名称
classnames = ['aeroplane','bicycle','bird','boat','bottle','bus','car','cat','chair','cow','diningtable','dog','horse','motorbike','person','pottedplant','sheep','sofa','train','tvmonitor']
for classname in classnames:
ap = voc_eval('../results/{}.txt', '../data/VOC/VOCdevkit/VOC2007/Annotations/{}.xml', '../data/VOC/2007_test.txt', classname, '.')
map_ += ap
#print ('%-20s' % (classname + '_ap:')+'%s' % ap)
print ('%s' % (classname + '_ap:')+'%s' % ap)
# 删除临时的dump文件
if(os.path.exists("annots.pkl")):
os.remove("annots.pkl")
print("cache file:annots.pkl has been removed!")
# 打印map
map = map_/len(classnames)
#print ('%-20s' % 'map:' + '%s' % map)
print ('map:%s' % map)
我这里在项目主目录下新建了一个【yolo-compute-util】文件夹,将两个.py文件放在文件夹中,cd /yolo-compute-util,然后运行:python compute_mAP.py
即可根据results中的验证结果统计出各个类别的ap,以及汇总的map。
可以看见,经过1晚上的训练,我们的模型——yolov3-voc_10000.weights的mAP是0.740,虽然没有达到yolov2系列76.8+的水平,不过一晚上的训练能达到如此程度,也是挺高了。
屏幕截图_6.png
网友评论