今天为大家介绍五篇值得阅读的ECCV 2020 oral【图像识别】相关论文。ECCV与CVPR、ICCV并称为计算机视觉领域三大顶会。ECCV 2020共有5025篇投稿,其中1361篇被接受,接受率为27%。
ECCV 2020接受论文列表地址:
https://eccv2020.eu/accepted-papers/
第1篇:自适应学习网络宽度与输入分辨率
论文题目:《MutualNet: Adaptive ConvNet via Mutual Learning from Network Width and Resolution》
下载地址: https://arxiv.org/abs/1909.12978
github:https://github.com/taoyang1122/MutualNet
介绍:深度神经网络已经在各种感知任务取得了巨大的胜利。然而,深度神经网络通常需要大量的计算资源,这使得它们很难部署在移动设备和嵌入式系统上。本文对此所做的贡献是:
-
强调输入分辨率对于设计高效网络的重要性。以往的研究要么忽略它,要么把它从网络结构中分离出来。相比之下,本文将网络宽度和输入分辨率嵌入到一个统一的相互学习框架中来学习一个深度神经网络(MutualNet),它可以在运行时实现自适应的精度和效率的权衡。
-
进行了大量的实验,以证明MutualNet的性能明显优于独立训练的网络。
-
我们进行全面的消融研究,以分析提议的相互学习方案。我们进一步证明,我们的框架有望作为即插即用策略来提高单个网络的性能,其性能大大超过了流行的性能提升方法,例如,数据扩充,SENet和知识蒸馏。
-
建议的架构是一个通用的训练计划,与模型无关。它可以应用于任何网络,而无需对结构进行任何调整。这使得它与其他最先进的技术兼容。例如,神经结构搜索(NAS),自动数据增强技术。
本文提出了一种在动态资源约束(如每秒浮点运算次数)下训练网络的方法,该方法提出了一个输入分辨率和网络宽度的互学习方案,在运行时实现自适应精度-效率权衡的约束,在图像分类、目标检测和实例分割等各种任务上,显著提高了轻量网络的精度和效率的权衡。在COCO目标检测、实例分割和迁移学习等方面也验证了该方法的优越性。令人惊讶的是,MutualNet的训练策略还可以提高单个网络的性能,在效率(GPU搜索小时数:15000 vs 0)和准确性(ImageNet:77.6% vs 78.6%)方面都大大优于强大的自动数据增强技术。
该互学习方案也被证明是提高单网络性能的有效训练策略。该框架的通用性使其能够很好地转换为通用的问题域,还可以扩展到视频输入和3D神经网络,其空间和时间信息都可以得到利用。
总体框架如下所示:
第2篇:基于随机特征采样和插值的空间自适应推理
论文题目:《Spatially Adaptive Inference with Stochastic Feature Sampling and Interpolation》
下载地址: https://arxiv.org/pdf/2003.08866.pdf
github: 暂未发现(欢迎留言补充)
介绍:在卷积神经网络(CNN)的特征映射中,普遍存在大量的空间冗余、重复处理。为了减少这种多余的计算,本文提出了一种减少卷积网络计算量的方法:只计算稀疏采样位置的特征,这些位置是根据激活响应概率选择的,然后使用有效的插值过程对特征图进行密集重构。
利用特征映射中固有的稀疏性和空间冗余性,我们避免了在可有效插值的空间位置进行昂贵的计算。
框架图:
第3篇:开放集识别的混合模型
论文题目:《Hybrid Models for Open Set Recognition》
下载地址: https://arxiv.org/abs/2003.12506
github:暂未发现(欢迎留言补充)
介绍:开放集识别需要一个分类器来检测不属于其训练集中任何类的样本,现有的方法对训练样本的嵌入空间上拟合一个概率分布,并根据这个分布来检测离群点。然而,这种分类只关注已知的类,对于区分未知的类可能没有什么效果。本文认为,表示空间应该由内层分类器和密度估计器(作为离群点检测器)共同学习。为此,提出了OpenHybrid框架,该框架由一个编码器将输入数据编码到一个联合嵌入空间,一个分类器将样本分类到一个内部类,以及一个基于流的密度估计器来检测样本是否属于未知类别。大量的实验表明我们的方法达到了最先进的水平。基于流的模型的一个常见问题是,它们通常为分布外的样本分配更大的可能性。通过学习一个联合特征空间,以及在不同的数据集上进行观察,这个问题得到了解决。研究还表明,联合训练是促进开放集的识别性能的另一个关键因素。
框架图:
第4篇:梯度集中(GC):一种新的深层神经网络优化技术
论文题目:《Gradient Centralization: A New Optimization Technique for Deep Neural Networks》
下载地址: https://arxiv.org/abs/2004.01461
github: https://github.com/Yonghongwei/Gradient-Centralization
介绍:优化技术对于有效地训练深度神经网络(DNN)具有重要意义。与现有的基于激活度或权值的优化方法不同,本文提出了一种新的优化技术,即梯度集中(gradient centralization,GC),它通过将梯度向量集中到零均值的方式,直接对梯度进行操作。通过综合实验表明,GC可以对权值空间和输出特征空间进行规整,可以很好地应用于不同优化器和网络架构下的不同任务,提高了训练效率和泛化性能。
框架图:第5篇:多任务学习增强对抗鲁棒性
论文题目:《Multi-task Learning Increases Adversarial Robustness》
下载地址:https://arxiv.org/pdf/2007.07236.pdf
github:暂未发现(欢迎留言补充)
介绍:虽然深度网络在一系列计算机视觉基准上达到了很强的精确度,但它们仍然容易受到对手的攻击,一些无法察觉的干扰数据欺骗了网络。本文提供了理论和实证分析,将一个模型的对抗鲁棒性与它所训练的任务数量联系起来。在两个数据集上的实验表明,攻击模型的难度随着目标任务数量的增加而增加。此外,我们的结果表明,当模型在同时进行多任务训练时,它们在单个任务的对抗攻击中会变得更稳健。也就是说,训练任务数量低的情况下,模型更容易受到对手的攻击。我们的工作是第一次将这种脆弱性与多任务学习联系起来,并暗示了一个新的研究方向,以理解和减轻这种脆弱性。
欢迎关注磐创AI博客站:
http://panchuang.net/
sklearn机器学习中文官方文档:
http://sklearn123.com/
欢迎关注磐创博客资源汇总站:
http://docs.panchuang.net/
网友评论