美文网首页
Libra R-CNN

Libra R-CNN

作者: 小松qxs | 来源:发表于2019-10-29 14:07 被阅读0次
    titile Libra R-CNN: Towards Balanced Learning for Object Detection
    url https://arxiv.org/pdf/1904.02701.pdf
    动机 追求sample level、feature level和objective level的balance
    内容 问题:
    目标检测的性能受训练过程imbalance的影响。

    训练过程中的主要问题:
    1、sample level:IoU-balanced sampling选择的样本是否有代表性。
    mining方法:对噪声类别敏感,有memory和计算损耗。
    Focal loss:对二阶段R-CNN几乎没提升,因为easy negatives被两阶段过滤。
    2、feature level:balanced feature pyramid 提取的features是否充分利用。
    现有方法中integrated features更关注相邻分辨率,更少关注其他分辨率。在信息流中,integrated应包含非相邻级别中的语义信息。
    3、objective level:balanced L1 loss设计的objective function是否最优。
    classification and localization not balance,会有次优的性能,与easy和hard examples相似。 IoU-balanced Sampling: 1、采样的样本分布中hard negtive更多。
    2、参数K对结果影响不大。
    3、负样本:增加hard negatives,将samples根据IOU分成K个bin,然后从每个bin取等量的negatives,IOU大的更容易选择,如果有的bin不够N/K个,就会再从所有samples中选择。
    4、正样本:每个gt_box类对应的boxes为一个bin,每个gt_box的boxes取相同数量的boxes,不够则随机选择。

    Balanced Feature Pyramid:
    整个过程分为四步:rescaling, integrating, refining and strengthening,将多层语义信息进行整合。
    1、Obtaining balanced semantic features:
    (1)将C2-C5层resize到C4的大小(max pooling或插值)。
    (2)对rescale之后的features取均值,balanced semantic features。 (3)使用相同但相反的过程rescale整合的特征,增强原始特征。每种分辨率的特征都可以从其他分辨率中获得相同的信息。
    (4)性能提升,参数没有增加
    2、Refining balanced semantic features:
    卷积或non-local模块均可用来refine,non-local更稳定,所以采用embedded Gaussian non-local attention,加强特征整合。
    Balanced L1 Loss: Faster rcnn的loss直接增加localization的权重,会增加outlier的影响(loss大于等于1的样本)
    localization(均为正样本)过程中outlier是hard examples会影响训练过程,inlier的easy examples在训练过程中相比与outlier只占30%的梯度贡献。 Balanced L1 Loss设计:
    1、传统L1 smooth通过拐点来区别outlier和inlier。
    2、Balanced L1提升重要的回归梯度,即gradients from inliers (accurate samples)。
    3、训练中localization和classification更均衡。 较小α增加inlier梯度,outlier梯度不变。
    γ调整回归误差的上限,帮助目标函数平衡任务。
    b确保等式中两个公式x = 1时有相同值。
    实验 Implementation Details:
    8 GPUs (2 images per GPU) ,12 epochs,initial learning rate 0.02, 8和11 epochs学习率乘0.1。

    Main Results: Ablation Experiments:

    Overall Ablation Studies ResNet-50 FPN Faster R-CNN baseline
    (1)IoU-balanced Sampling: (2)Balanced Feature Pyramid
    (3)Balanced L1 Loss

    Ablation Studies on IoU-balanced Sampling Ablation Studies on Balanced Feature Pyramid: Ablation Studies on Balanced L1 Loss:
    思考 在我自己的数据集,retinanet加balanced L1,增大regression权重可以涨1.7个点,IoU-balanced sampling无效果,掉点;faster rcnn默认值训练也可涨
    补充知识 non-local: 参考

    相关文章

      网友评论

          本文标题:Libra R-CNN

          本文链接:https://www.haomeiwen.com/subject/hkobvctx.html