美文网首页图像检测目标检测
YOLOv5学习(一):安全帽检测模型训练

YOLOv5学习(一):安全帽检测模型训练

作者: 云深沧海暮 | 来源:发表于2021-02-23 16:25 被阅读0次

    YoloV5刚刚于2021年1月发布了4.0版本,涉及的变化主要包括:替换激活函数、精简模型结构、引入W&B等。现准备尝试基于YoloV5训练安全帽检测模型,借此熟悉YoloV5的网络结构、损失函数、数据增强方法等。
    地址:https://github.com/ultralytics/yolov5

    环境配置

    由于4.0版本引入的nn.SiLU() 是在pytorch1.7.0才开始支持,因此pytorch版本需>=1.7.0。

    git clone https://github.com/ultralytics/yolov5.git
    mv yolov5/ yolov5-4.0/
    mkvirtualenv yolov5-4.0
    pip install https://download.pytorch.org/whl/cu102/torch-1.7.0-cp36-cp36m-linux_x86_64.whl
    pip install torchvision==0.8.1
    cd yolov5-4.0/
    pip install -r requirements.txt
    

    数据准备

    数据集来源于https://github.com/njvisionpower/Safety-Helmet-Wearing-Dataset,下载数据集解压后目录结构如下图:

    SHWD数据集
    其中, Annotations文件夹中是xml格式的标签文件,JPEGImages文件夹中是图像文件。为了基于该数据集训练Yolov5模型,我们需要进一步将其处理为Yolov5适配的格式和目录结构。

    首先按照下图创建目录结构:

    修改后的目录结构

    然后运行下列代码生成适配YoloV5格式的数据集:

    import os, sys
    import shutil
    from tqdm import tqdm
    import xml.etree.ElementTree as ET
    
    classes = ["hat", "person"]
    
    def convert(size, box):
        dw = 1. / size[0]
        dh = 1. / size[1]
        x = (box[0] + box[1]) / 2.0
        y = (box[2] + box[3]) / 2.0
        w = box[1] - box[0]
        h = box[3] - box[2]
        x = x * dw  # x_center
        y = y * dh  # y_center
        w = w * dw  # width
        h = h * dh  # height
        return (x, y, w, h)
    
    
    def parse_xml(xml_path, dst_label_path):
        anno_xml = xml_path
        anno_txt = dst_label_path
        if os.path.exists(anno_xml):
            xml = open(anno_xml, "r")
            txt = open(anno_txt, "w")
            tree = ET.parse(xml)
            root = tree.getroot()
            size = root.find('size')
            w = int(size.find('width').text)
            h = int(size.find('height').text)
            for obj in root.iter('object'):
                cls = obj.find('name').text
                difficult = obj.find('difficult').text
                if cls not in classes or difficult == 1:
                    continue
                cls_id = classes.index(cls)
                xmlbox = obj.find('bndbox')
                bbox = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
                    float(xmlbox.find('ymax').text))
                yolo_bbox = convert((w, h), bbox)
                yolo_anno = str(cls_id) + " " + " ".join([str(i) for i in yolo_bbox]) + '\n'
                txt.write(yolo_anno)
            xml.close()
            txt.close()
        else:
            print(anno_xml, "文件不存在")
    
    def copy_to(src, dst):
        shutil.copyfile(src, dst)
    
    
    if __name__== "__main__":
        sets = ["train", "val", "test"]
        for s in sets:
            name_path = "VOC2028/ImageSets/Main/{}.txt".format(s)
            f = open(name_path, "r")
            names = f.readlines()
            f.close()
            for name in tqdm(names):
                name = name.replace('\n', '').replace('\r', '')
                image_path = r"VOC2028/JPEGImages/{}.jpg".format(name)
                xml_path = r"VOC2028/Annotations/{}.xml".format(name)
                dst_image_path = r"SHWD/images/{}/{}.jpg".format(s, name)
                dst_label_path = r"SHWD/labels/{}/{}.txt".format(s, name)
                if os.path.exists(image_path) and os.path.exists(xml_path):
                    parse_xml(xml_path, dst_label_path)
                    if not os.path.exists(dst_image_path):
                        copy_to(image_path, dst_image_path)
                    else:
                        print(dst_image_path, "文件已存在")
                else:
                    print(image_path, xml_path)
    

    注意:由于数据集中存在少量后缀为大写JPG的图像,因此在运行上述代码时会漏掉部分数据没处理,需要修改image_path = r"VOC2028/JPEGImages/{}.jpg".format(name)image_path = r"VOC2028/JPEGImages/{}.JPG".format(name)后再次运行,才能完成全部数据的处理。

    处理完成后的每一幅图像和其对应标签文件的路径只有文件后缀名以及images-labels字段的区别,代码读取数据集时则只需要替换这两个位置就可访问相对应的数据:

    SHWD/images/train/001320.jpg
    SHWD/labels/train/001320.txt
    

    转换后的txt标签文件中如下图所示,每一行表示一个目标框,行内五个元素分别是类别、中心点x坐标、中心点y坐标、宽、高,数值都进行了归一化处理。

    转换后的标签文件 目标框示意图.png

    训练模型

    • 创建shwd.yaml文件配置数据
    # train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
    train: SHWD/images/train  
    val: SHWD/images/val
    test: SHWD/images/test
    
    # number of classes
    nc: 2
    
    # class names
    names: ["hat", "no-hat"]
    
    • 训练

    这里选择YOLOv5s网络来训练安全帽检测,

    $ python train.py --img 640 --batch 16 --epochs 50 --data data/shwd.yaml --weights yolov5s.pt
    

    W&B可视化

    Weights & Biases现在集成到了YOLOV5的4.0版本,用于实时可视化训练记录,可以更好地观测和对比网络的训练情况。
    首先用pip安装wandb:

    pip install wandb
    

    然后在运行上一节的训练命令时,终端会提示进行wandb的相关配置:


    按照要求创建账户后,会提供一个API key用于终端账户验证,然后在网络训练期间,可以访问https://www.wandb.com/查看实时更新。

    参考

    https://blog.csdn.net/ayiya_Oese/article/details/112249173
    https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data

    相关文章

      网友评论

        本文标题:YOLOv5学习(一):安全帽检测模型训练

        本文链接:https://www.haomeiwen.com/subject/ezdrfltx.html