yolo又出新的paper了,这次属于官方改进版(二作就是原yolo的作者),Scaled-yolov4.
这篇文章主要是在backbone的架构上做的改进,mAP达到了逆天的55.8%,可见网络架构的调整才是涨点利器。
设计过程如下:
首先对yolov4进行重新设计,提出yolov4-CSP,然后基于yolov4-CSP开发了scaled-yolov4。
主要贡献:
- 设计了一种针对小模型的强大的模型缩放方法,系统地平衡了浅层CNN的计算代价和存储带宽;
- 设计一种简单有效的大型目标检测器缩放策略;
- 分析各模型缩放因子之间的关系,基于最优组划分进行模型缩放;
- 实验证实了FPN结构本质上是一种一次性结构;
- 利用上述方法开发yolov4 - tiny 和 yolo4v4 -large。
模型缩放原则
设计有效的缩放比例方法时,主要原则是:比例上升时,增加的定量成本越少越好;比例下降时,减少的定量成本越多越好。
下面从图像大小、层数、通道数来分析各种CNN模型,这里选择ResNet、ResNext、Darknet。
For the k-layer CNNs with b base layer channels, the computations of ——
ResNet:k∗{conv1×1,b/4 - conv3×3,b/4 - conv1×1,b};
ResNext:k∗{conv1×1,b/2 - gconv3×3/32,b/2 - conv1×1,b};
Darknet:k∗{conv1×1,b/2 - conv3×3,b}。
将可用于调整图像大小、层数和通道数的缩放因子分别设置为α、β、γ:当这些比例因子发生变化时,FLOPs的相应变化见表1:
表1由表1可以看出,尺度大小、深度和宽度都会导致计算成本的增加。它们分别表现为平方增长、线性增长和平方增长。CSPNet可以应用于各种CNN架构,同时减少了参数和计算量。此外,它还提高了准确性,减少了推理时间。我们将它应用到ResNet、ResNeXt和Darknet中,观察计算量的变化,如表2所示。
网友评论