最新姿态估计研究进展

作者: a微风掠过 | 来源:发表于2018-02-02 16:14 被阅读217次

    最新姿态估计研究进展

    自上而下:就是先检测包含人的框,即human proposal,然后对框子中的人进行姿态估计。一般RCNN(区域CNN就是这个思路)

    自下而上:先检测keypoint,然后根据热力图、点与点之间连接的概率,根据图论知识,基于PAF(部分亲和字段)将关键点连接起来,将关键点分组到人。

    1、CMU:openpose 研究多人的姿态估计

    运行环境:caffe

    自下而上, 关键点被分组到人的实例

    时间:2.8-3.4fps

    开源,Github: https://github.com/CMU-Perceptual-Computing-Lab/openpose

    2、谷歌:

    (1)deepgaze 研究头部姿态和注意力方向的,开源

    主要为头部姿态估计 先框出人脸区域,再进行姿态估计。

    运行环境:tensorflow+python

    运行速度较快,基本满足实时性,准确度略差。

    开源。Github: https://github.com/mpatacchiola/deepgaze

    (2)野外多人姿态估计:Towards Accurate Multi-person Pose Estimation in the Wild 自上而下(up-bottom)的方法,把姿态估计器放在边界框的输出后。

    未开源

    3、UCLA:

    (1)《Articulated Pose Estimation by a Graphical Model with Image Dependent Pairwise Relations》2014

    (2)《Joint Multi-Person Pose Estimation and Semantic Part Segmentation> ( ICCV 2017, UCLA)》自上而下

    时间需要8s一张图。

    4、Facebook: 2018

    mask RCNN:https://github.com/facebookresearch/Detectron

    该开源项目可以进行人-物交互识别,如有人拿着手机在耳朵边,则可判定为人在打电话,人手上捧着书,则人在读书。网络通过目标检测和语义分割联合进行,从而进行行为识别。

    据说keypoint检测和openpose差不多,效果略差于openpose.可见时间也提不上去。

    Caffe2+python

    5、deepercut: 2016

    基于tensorflow

    其具体思路即(类似openpose):提出人体部件的候选区域,每个候选区域作为一个节点,所有的节点组成一个密集连接图,节点之间的关联性作为图节点之间的权重,将其作为一个优化问题,将属于同一个人的部件(节点)归为一类,每个人作为一个单独类。

    (1)采用了Resnet(残差网络)来提高body part的检测,更加的有效,精度更高;

    (2)使用了image-conditioned pairwise terms可以将得到足够丰富的候选区域节点压缩到一定数量的节点,而这也是整个论文的核心部分,也是stronger & faster的主要原因。通过候选区域节点之间的距离来判断是否为不同的重要关节点。

    https://github.com/eldar/deepcut-cnn

    时间:230s/frame(太慢了)

    6、《RMPE: Regional Multi-Person Pose Estimation》ICCV 2017 腾讯优图和上海交大联合研究的。它对于多人姿态估计的方法采用传统的自顶向下的方法,即先检测人,再识别人体姿态。检测使用的是SSD-512,识别人体姿态使用的是state-of-the-art的Stacked Hourglass方法。

    论文地址:https://arxiv.org/abs/1612.00137v3

    项目主页:RMPE: Regional Multi-person Pose Estimation

    http://blog.csdn.net/qq_36165459/article/details/78330800

    人体姿态数据集:

    LSP

    地址:http://sam.johnson.io/research/lsp.html

    样本数:2K

    关节点个数:14

    全身,单人

    FLIC

    地址:https://bensapp.github.io/flic-dataset.html

    样本数:2W

    关节点个数:9

    全身,单人

    MPII

    地址:http://human-pose.mpi-inf.mpg.de/

    样本数:25K

    关节点个数:16

    全身,单人/多人,40K people,410 human activities

    MSCOCO

    地址:http://cocodataset.org/#download

    样本数:>= 30W

    关节点个数:18

    全身,多人,keypoints on 10W people

    AI Challenge

    地址:https://challenger.ai/competition/keypoint/subject

    样本数:21W Training, 3W Validation, 3W Testing

    关节点个数:14

    全身,多人,38W people

    相关文章

      网友评论

        本文标题:最新姿态估计研究进展

        本文链接:https://www.haomeiwen.com/subject/ncsezxtx.html