Where, What, Whether: Multi-moda

作者: 元水1314 | 来源:发表于2020-07-12 09:50 被阅读0次
    捕获CDC v发.PNG
    paper:extension://bfdogplmndidlpjfhoijckpakkdjkkil/pdf/viewer.html?file=https://openaccess.thecvf.com/content_CVPR_2020/papers/Luo_Where_What_Whether_Multi-Modal_Learning_Meets_Pedestrian_Detection_CVPR_2020_paper.pdf

    上图是论文的框架图
    从论文中可以看到右边分成三列,where,what,whether
    where:
    论文是基于anchor-free,和CSP类似,提出鸟览图,鸟览图里边不会有遮挡问题这就是where
    what:
    这对CSP论文里边提出设置纵横比0.41,该论文认为这个比例不灵活,因为纵横比还受深度影响,所以根据深度和比例之间的关系建模
    whether:
    针对part-based方法建模的缺点,分割方式对待遮挡和非遮挡会造成遮挡样本和非遮挡样本的不平衡性,还会造成弱监督part label 的不确定性
    针对这个缺点,提出新的建模方式,建立语料库,这个语料库是包含头部,手臂,身体,腿部。
    从Where,What,Whether,三个角度建模,怎么融合三种方式的学习信息,这就多模式学习,正如论文标题说的那样Multi-modal Learning Meets Pedestrian Detection

    相关文章

      网友评论

        本文标题:Where, What, Whether: Multi-moda

        本文链接:https://www.haomeiwen.com/subject/ehlgcktx.html