YoloV5刚刚于2021年1月发布了4.0版本,涉及的变化主要包括:替换激活函数、精简模型结构、引入W&B等。现准备尝试基于YoloV5训练安全帽检测模型,借此熟悉YoloV5的网络结构、损失函数、数据增强方法等。
地址:https://github.com/ultralytics/yolov5
环境配置
由于4.0版本引入的nn.SiLU() 是在pytorch1.7.0才开始支持,因此pytorch版本需>=1.7.0。
git clone https://github.com/ultralytics/yolov5.git
mv yolov5/ yolov5-4.0/
mkvirtualenv yolov5-4.0
pip install https://download.pytorch.org/whl/cu102/torch-1.7.0-cp36-cp36m-linux_x86_64.whl
pip install torchvision==0.8.1
cd yolov5-4.0/
pip install -r requirements.txt
数据准备
数据集来源于https://github.com/njvisionpower/Safety-Helmet-Wearing-Dataset,下载数据集解压后目录结构如下图:
其中, Annotations文件夹中是xml格式的标签文件,JPEGImages文件夹中是图像文件。为了基于该数据集训练Yolov5模型,我们需要进一步将其处理为Yolov5适配的格式和目录结构。
首先按照下图创建目录结构:
修改后的目录结构然后运行下列代码生成适配YoloV5格式的数据集:
import os, sys
import shutil
from tqdm import tqdm
import xml.etree.ElementTree as ET
classes = ["hat", "person"]
def convert(size, box):
dw = 1. / size[0]
dh = 1. / size[1]
x = (box[0] + box[1]) / 2.0
y = (box[2] + box[3]) / 2.0
w = box[1] - box[0]
h = box[3] - box[2]
x = x * dw # x_center
y = y * dh # y_center
w = w * dw # width
h = h * dh # height
return (x, y, w, h)
def parse_xml(xml_path, dst_label_path):
anno_xml = xml_path
anno_txt = dst_label_path
if os.path.exists(anno_xml):
xml = open(anno_xml, "r")
txt = open(anno_txt, "w")
tree = ET.parse(xml)
root = tree.getroot()
size = root.find('size')
w = int(size.find('width').text)
h = int(size.find('height').text)
for obj in root.iter('object'):
cls = obj.find('name').text
difficult = obj.find('difficult').text
if cls not in classes or difficult == 1:
continue
cls_id = classes.index(cls)
xmlbox = obj.find('bndbox')
bbox = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
float(xmlbox.find('ymax').text))
yolo_bbox = convert((w, h), bbox)
yolo_anno = str(cls_id) + " " + " ".join([str(i) for i in yolo_bbox]) + '\n'
txt.write(yolo_anno)
xml.close()
txt.close()
else:
print(anno_xml, "文件不存在")
def copy_to(src, dst):
shutil.copyfile(src, dst)
if __name__== "__main__":
sets = ["train", "val", "test"]
for s in sets:
name_path = "VOC2028/ImageSets/Main/{}.txt".format(s)
f = open(name_path, "r")
names = f.readlines()
f.close()
for name in tqdm(names):
name = name.replace('\n', '').replace('\r', '')
image_path = r"VOC2028/JPEGImages/{}.jpg".format(name)
xml_path = r"VOC2028/Annotations/{}.xml".format(name)
dst_image_path = r"SHWD/images/{}/{}.jpg".format(s, name)
dst_label_path = r"SHWD/labels/{}/{}.txt".format(s, name)
if os.path.exists(image_path) and os.path.exists(xml_path):
parse_xml(xml_path, dst_label_path)
if not os.path.exists(dst_image_path):
copy_to(image_path, dst_image_path)
else:
print(dst_image_path, "文件已存在")
else:
print(image_path, xml_path)
注意:由于数据集中存在少量后缀为大写JPG的图像,因此在运行上述代码时会漏掉部分数据没处理,需要修改image_path = r"VOC2028/JPEGImages/{}.jpg".format(name)
为image_path = r"VOC2028/JPEGImages/{}.JPG".format(name)
后再次运行,才能完成全部数据的处理。
处理完成后的每一幅图像和其对应标签文件的路径只有文件后缀名以及images-labels字段的区别,代码读取数据集时则只需要替换这两个位置就可访问相对应的数据:
SHWD/images/train/001320.jpg
SHWD/labels/train/001320.txt
转换后的txt标签文件中如下图所示,每一行表示一个目标框,行内五个元素分别是类别、中心点x坐标、中心点y坐标、宽、高,数值都进行了归一化处理。
转换后的标签文件 目标框示意图.png训练模型
- 创建shwd.yaml文件配置数据
# train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
train: SHWD/images/train
val: SHWD/images/val
test: SHWD/images/test
# number of classes
nc: 2
# class names
names: ["hat", "no-hat"]
- 训练
这里选择YOLOv5s网络来训练安全帽检测,
$ python train.py --img 640 --batch 16 --epochs 50 --data data/shwd.yaml --weights yolov5s.pt
W&B可视化
Weights & Biases现在集成到了YOLOV5的4.0版本,用于实时可视化训练记录,可以更好地观测和对比网络的训练情况。
首先用pip安装wandb:
pip install wandb
然后在运行上一节的训练命令时,终端会提示进行wandb的相关配置:
按照要求创建账户后,会提供一个API key用于终端账户验证,然后在网络训练期间,可以访问https://www.wandb.com/查看实时更新。
参考
https://blog.csdn.net/ayiya_Oese/article/details/112249173
https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data
网友评论