美文网首页
目标检测YOLO v1-v5演进

目标检测YOLO v1-v5演进

作者: 小奥蕉 | 来源:发表于2020-09-08 15:40 被阅读0次

    目标检测介绍

    目标检测是与计算机视觉和图像处理相关的计算机技术,用于在一张图片中识别出些物体的种类,同时要求标出物体的位置。目标检测已被广泛应用于人脸检测、自动驾驶和视频监控等图像领域。

    目标检测中的常见方法,分为one-stage和two-stage两类。One-stage方法首先输入图片,输出Bounding box (bbox)和分类标签,由一个网络完成,该方法以YOLO、SSD为主要代表。Two-stage方法则以Faster-RCNN为代表,输入图片后,首先生成建议区域(Region Proposal),再输入分类器进行分类,两个任务由不同网络完成。

    其中,YOLO目标检测是一种突出且优秀的算法,其为“you only look once”的缩写,意为只需浏览一次即可识别出图中物体的类别与位置,且完美地平衡了检测速度和精度之间的关系。YOLO也由最初的YOLO v1发展到现在最新的YOLO v5。

    原理简介

    一、YOLO v1

    2015年提出了第一版YOLO v1,YOLO借鉴GoogleNet而提出了Darknet网络。Darknet是用C语言和CUDA编写的开源神经网络框架,用1x1卷积层+3x3卷积层替代GoogleNet的Inception模块。网络由24 层卷积层接2层全连接组成,如图1:


    YOLO v1中的Darknet结构

    YOLO v1的框架如图2所示:首先调整图像大小为448×448,随后将图像输入CNN,最后通过非极大值抑制(NMS)保留最终标定框。

    YOLO v1的整体框架 每个Bounding box的输出向量

    YOLO v1 的核心思想在于将目标检测视为回归问题,其将图片划分成 SxS 个网格,如果目标中心落入某网格单元,则该网格就负责检测该目标。每个网格单元预测 B个边界框(bbox)和类别信息。此外,每个bbox需要预测(x, y, w, h)和置信度共5个值。因此,最终每个网格应预测B个bbox和C个类别,最终输出S x S x (5*B+C)的tensor。

    其中,置信度得分反映了bbox包含物体的概率 Pr(Object) 以及bbox的位置准确性 IOU(预测的bbox和真实的物体位置的交并比),置信分数由以上两部分定义: 得到所有bbox后进入非极大值抑制(NMS)阶段。对于每个bbox,按照下式衡量该框是否应该予以保留。 上式为每个网格的类别置信度得分(class-specific confidence scores),这不仅包含了预测的类别信息,也包含了对 bbox 值的准确度。通过设置阈值,可先行筛去类别置信度得分低的bbox,对保留的bbox进行NMS处理,得到最终检测结果。 损失函数包含位置误差,置信度误差,分类误差这三部分。 损失函数

    优点:

    • YOLO v1的检测速度快,在Titan X 的 GPU 上可达45 FPS;
    • 可避免背景错误;
    • 能学到泛化特征。
      缺点:
    • YOLO v1对邻近物体检测效果差,每个网格只能识别出一个种类;
    • 对少见长宽比的物体泛化能力较弱;
    • 损失函数不具体。

    二、YOLO v2&v3

    YOLO v2在YOLO v1基础上进行了一系列的改进,在保持分类精度的同时,提高了目标定位的精度以及召回率。首先,YOLO v2能够适应不同的输入尺寸,并可根据需要自行权衡检测准确率和检测速度;其次,根据层级分类提出了WordTree来混合检测数据集与分类数据集;最后,提出了可同时在检测和分类数据集上进行的联合训练方式,使用检测数据集训练模型识别部分,使用分类数据集训练模型分类部分,扩充检测种类。

    对于YOLO v1更为具体的改进包括以下几点:

    1. 在每个卷积层后添加Batch Normalization层,舍弃Dropout。
    2. 借鉴Fast R-CNN中Anchor的思想,预测bbox与网格的偏移量。
    3. 提出Darknet-19,用卷积层代替将全连接层,应对不同尺寸的图像。

    不过YOLO v2仍然无法解决同一个网格内物体重叠的问题。YOLO v3则继续在YOLO v2上做了些许改进:

    1. 使用残差模型,提出包含53个卷积层的新网络Darknet-53;
    2. 采用FPN(feature pyramid networks)架构获取三种大小的特征图,实现多尺度检测。

    三、最新研究之YOLO v4&v5:

    2020年4月,YOLO v4重磅发布。其在MS COCO数据集上的精度达到了43.5% AP,速度达到65FPS,与 YOLO v3相比分别提高了 10% 和 12%。

    YOLO v4首先对相关工作进行总结,并对目标检测框架拆分:
    Object Detection = Backbone + Neck + Head

    1. Backbone:图像特征提取部分,可利用预训练网络,如VGG16、ResNet-50、 Darknet53, 或轻量级网络Mobilenet、ShuffleNet。
    2. Neck:特征增强模块。对Backbone提取到的浅层特征进行增强,如SPP、SAM、FPN, PAN、ASFF, SFAM。
    3. Head:检测器。输出所要结果。

    此外,将所有所有的调优手段分为两类:“Bag of freebies”和“Bag of specials”。

    1. Bag of freebies (BOF)是指在离线训练阶段为了提升精度而广泛使用的调优手段,并不增加模型复杂度。包括一些数据增强的手段,如Random erase、CutOut、MixUp、CutMix。

      数据增强方法
    2. BOS (Bag of specials)是指在推断过程中增加的些许成本但能换来较大精度提升的技巧。如增大感受野类的SPP/ASPP/RFB,注意力相关的 SE/ SAM,以及激活函数。

    YOLO v4总结了以上各种调优技巧,从中寻找最优组合。并在训练过程中,验证了Bag-of-Freebies和Bag-of-Specials对于YOLO v4的影响。

    最终使用的YOLO v4框架组成为: YOLO v4框架 最后,YOLOv4简化且优化了包括CBN,PAN,SAM在内的算法,可使YOLO v4在单GPU上完成训练。在MS COCO数据集上的检测结果如下: MS COCO数据集检测结果

    自YOLO v4发布的40余天后, Ultralytics公司开源了非官方的YOLO v5,其完全基于PyTorch实现。值得注意的是,每个图像的推理时间达到140 FPS,并且YOLOv5的权重文件大小仅为YOLOv4的1/9。YOLO v5更快,也更小巧!

    此外,YOLO v5还支持转ONNX以及CoreML等,方便用户在移动端部署。 YOLO v5

    由以上YOLO的发展历程可看出, YOLO系列的发展后期更重视应用落地,没有提出非常新颖的创新点。

    相关文章

      网友评论

          本文标题:目标检测YOLO v1-v5演进

          本文链接:https://www.haomeiwen.com/subject/ibzdektx.html