美文网首页
“再思考”三作者的其它工作

“再思考”三作者的其它工作

作者: Valar_Morghulis | 来源:发表于2020-11-06 15:38 被阅读0次

    Barret Zoph

    1.Learning Data Augmentation Strategies for Object Detection

    https://arxiv.org/abs/1906.11172

    数据扩充是深度学习模型训练的一个重要组成部分。虽然数据增强已被证明可以显著改善图像分类,但其在目标检测方面的潜力尚未得到充分研究。考虑到为目标检测而注释图像的额外成本,数据增强对于这项计算机视觉任务可能更为重要。在这项工作中,我们研究了数据扩充对目标检测的影响。我们首先证明了从图像分类中借鉴的数据扩充操作可能有助于训练检测模型,但改进是有限的。因此,我们研究学习的、专门的数据扩充策略如何提高检测模型的泛化性能。重要的是,这些扩充策略只影响训练,并在评估期间保持训练模型不变。在COCO数据集上的实验表明,优化后的数据扩充策略使检测精度提高了2.3map以上,并且允许单个推理模型达到50.7map的最新精度。重要的是,在COCO上找到的最佳策略可以不变地转移到其他检测数据集和模型中,以提高预测精度。例如,使用COCO确定的最佳增强策略将PASCAL-VOC的强基线提高了+2.7 mAP。我们的结果还表明,学习的增强策略优于最先进的体系结构正则化方法,即使在考虑强基线的情况下也是如此。

    2.AugMix: A Simple Data Processing Method to Improve Robustness and Uncertainty

    https://arxiv.org/abs/1912.02781

    当训练分布和测试分布相同时,现代深层神经网络可以获得很高的精度,但这一假设在实践中经常被违背。当列车和测试分布不匹配时,精度会急剧下降。目前,很少有技术可以提高部署过程中遇到的意外数据转移的健壮性。在这项工作中,我们提出一项技术来改善图像分类器的稳健性和不确定性估计。我们提出了AugMix,一种易于实现的数据处理技术,增加了有限的计算开销,并帮助模型抵御不可预见的损坏。AugMix显著提高了具有挑战性的图像分类基准的稳健性和不确定性度量,在某些情况下,将先前方法与最佳性能之间的差距缩小了一半以上。

    相关文章

      网友评论

          本文标题:“再思考”三作者的其它工作

          本文链接:https://www.haomeiwen.com/subject/foytbktx.html