目标检测介绍
目标检测是与计算机视觉和图像处理相关的计算机技术,用于在一张图片中识别出些物体的种类,同时要求标出物体的位置。目标检测已被广泛应用于人脸检测、自动驾驶和视频监控等图像领域。
目标检测中的常见方法,分为one-stage和two-stage两类。One-stage方法首先输入图片,输出Bounding box (bbox)和分类标签,由一个网络完成,该方法以YOLO、SSD为主要代表。Two-stage方法则以Faster-RCNN为代表,输入图片后,首先生成建议区域(Region Proposal),再输入分类器进行分类,两个任务由不同网络完成。
其中,YOLO目标检测是一种突出且优秀的算法,其为“you only look once”的缩写,意为只需浏览一次即可识别出图中物体的类别与位置,且完美地平衡了检测速度和精度之间的关系。YOLO也由最初的YOLO v1发展到现在最新的YOLO v5。
原理简介
一、YOLO v1
2015年提出了第一版YOLO v1,YOLO借鉴GoogleNet而提出了Darknet网络。Darknet是用C语言和CUDA编写的开源神经网络框架,用1x1卷积层+3x3卷积层替代GoogleNet的Inception模块。网络由24 层卷积层接2层全连接组成,如图1:
YOLO v1中的Darknet结构
YOLO v1的框架如图2所示:首先调整图像大小为448×448,随后将图像输入CNN,最后通过非极大值抑制(NMS)保留最终标定框。
YOLO v1的整体框架 每个Bounding box的输出向量YOLO v1 的核心思想在于将目标检测视为回归问题,其将图片划分成 SxS 个网格,如果目标中心落入某网格单元,则该网格就负责检测该目标。每个网格单元预测 B个边界框(bbox)和类别信息。此外,每个bbox需要预测(x, y, w, h)和置信度共5个值。因此,最终每个网格应预测B个bbox和C个类别,最终输出S x S x (5*B+C)的tensor。
其中,置信度得分反映了bbox包含物体的概率 Pr(Object) 以及bbox的位置准确性 IOU(预测的bbox和真实的物体位置的交并比),置信分数由以上两部分定义: 得到所有bbox后进入非极大值抑制(NMS)阶段。对于每个bbox,按照下式衡量该框是否应该予以保留。 上式为每个网格的类别置信度得分(class-specific confidence scores),这不仅包含了预测的类别信息,也包含了对 bbox 值的准确度。通过设置阈值,可先行筛去类别置信度得分低的bbox,对保留的bbox进行NMS处理,得到最终检测结果。 损失函数包含位置误差,置信度误差,分类误差这三部分。 损失函数优点:
- YOLO v1的检测速度快,在Titan X 的 GPU 上可达45 FPS;
- 可避免背景错误;
- 能学到泛化特征。
缺点: - YOLO v1对邻近物体检测效果差,每个网格只能识别出一个种类;
- 对少见长宽比的物体泛化能力较弱;
- 损失函数不具体。
二、YOLO v2&v3
YOLO v2在YOLO v1基础上进行了一系列的改进,在保持分类精度的同时,提高了目标定位的精度以及召回率。首先,YOLO v2能够适应不同的输入尺寸,并可根据需要自行权衡检测准确率和检测速度;其次,根据层级分类提出了WordTree来混合检测数据集与分类数据集;最后,提出了可同时在检测和分类数据集上进行的联合训练方式,使用检测数据集训练模型识别部分,使用分类数据集训练模型分类部分,扩充检测种类。
对于YOLO v1更为具体的改进包括以下几点:
- 在每个卷积层后添加Batch Normalization层,舍弃Dropout。
- 借鉴Fast R-CNN中Anchor的思想,预测bbox与网格的偏移量。
- 提出Darknet-19,用卷积层代替将全连接层,应对不同尺寸的图像。
不过YOLO v2仍然无法解决同一个网格内物体重叠的问题。YOLO v3则继续在YOLO v2上做了些许改进:
- 使用残差模型,提出包含53个卷积层的新网络Darknet-53;
- 采用FPN(feature pyramid networks)架构获取三种大小的特征图,实现多尺度检测。
三、最新研究之YOLO v4&v5:
2020年4月,YOLO v4重磅发布。其在MS COCO数据集上的精度达到了43.5% AP,速度达到65FPS,与 YOLO v3相比分别提高了 10% 和 12%。
YOLO v4首先对相关工作进行总结,并对目标检测框架拆分:
Object Detection = Backbone + Neck + Head
- Backbone:图像特征提取部分,可利用预训练网络,如VGG16、ResNet-50、 Darknet53, 或轻量级网络Mobilenet、ShuffleNet。
- Neck:特征增强模块。对Backbone提取到的浅层特征进行增强,如SPP、SAM、FPN, PAN、ASFF, SFAM。
- Head:检测器。输出所要结果。
此外,将所有所有的调优手段分为两类:“Bag of freebies”和“Bag of specials”。
-
Bag of freebies (BOF)是指在离线训练阶段为了提升精度而广泛使用的调优手段,并不增加模型复杂度。包括一些数据增强的手段,如Random erase、CutOut、MixUp、CutMix。
数据增强方法
-
BOS (Bag of specials)是指在推断过程中增加的些许成本但能换来较大精度提升的技巧。如增大感受野类的SPP/ASPP/RFB,注意力相关的 SE/ SAM,以及激活函数。
YOLO v4总结了以上各种调优技巧,从中寻找最优组合。并在训练过程中,验证了Bag-of-Freebies和Bag-of-Specials对于YOLO v4的影响。
自YOLO v4发布的40余天后, Ultralytics公司开源了非官方的YOLO v5,其完全基于PyTorch实现。值得注意的是,每个图像的推理时间达到140 FPS,并且YOLOv5的权重文件大小仅为YOLOv4的1/9。YOLO v5更快,也更小巧!
此外,YOLO v5还支持转ONNX以及CoreML等,方便用户在移动端部署。 YOLO v5由以上YOLO的发展历程可看出, YOLO系列的发展后期更重视应用落地,没有提出非常新颖的创新点。
网友评论