行为识别总结

作者: 忆亿亿光年 | 来源:发表于2018-05-24 15:08 被阅读0次

行为识别两大流派:(1)Two-Stream (2)C3D


Two-Stream

Two-Stream流派思想:
利用视频帧图像(spatial)和根据帧图像提取到的光流场图像(temporal flow),各自训练出一个模型,在网络产生结果后,对网络做一个融合(Fusion)。这两个模型分别表示静态信息和短时序信息。它能有效解决从一张图就可以识别出行为的类别。

光流是什么?
光流能通过速度提供物体的远近信息,远处似静止,近处似脱兔。此外,还能提供角度信息,与眼睛呈90°的物体运动最快,角度小到0°的时候感受不到它的运动。

Two-Stream代表算法:
(1) Two-Stream Convolutional Networks for Action Recognition in Videos(2014NIPS)

  • Two-Stream方法首次在这篇文章中被提出来,他的原理是对视频序列中每两帧计算密集光流,得到密集光流序列(temporal信息),然后对RGB图像(spatial)和密集光流(temporal)分别训练CNN模型。两个分支的网络分别对动作进行判断,最后对两个网络的class score进行融合(fusion),论文中fusion方法是直接平均和SVM方法,最终得到分类结果。两个分支使用相同的2DCNN网咯,结构图如下: Two-Stream architecture for video classfication
  • 实验结果:UCF-101 88%,HMDB51 59.4%

(2) Convolutional Two-Stream Network Fusion for Video Action Recognition(2016CVPR)

  • 论文主要内容在上一篇文章Two-Stream network的基础上,利用CNN网络对RGB图像和密集光流进行融合,效果提高了准确率。此外,该文章还将双流网络都换成VGG-16 network。网络结构如下:

    (3)Temporal Segment Networks: Towards Good Practices for Deep Action Recognition
    目前精度最高的算法:TSN
    做的工作是提出新的Two-Stream网络,具体做的工作如下:

  1. 改变输入数据的类型,不再是传统上的RGB+Flow这种输入,而是采用四种输入数据,即RGB image+optical flow+RGB difference+warped optical flow来研究对动作检测效果的影响。


    四种输入数据类型
  2. 改进网络结构,提出TSN网络,实质上也是Two-Stream模式,网络结构如下图所示:


    TSN网络结构

    网络部分是由双路CNN组成,分别为spatial convnet和temporal convnet。这两个网络使用的都是BN-Inception(GoogleNet网络的演变体)。

注意点:

  • spatial convnet是以RGB Image作为输入,temporal convnet是以a stack of consecutive optical flow fields(一堆连续的的光流场)作为输入。
  • 整个temporal segment network(TSN网络,包含多个spatial convnet和temporal convnet)的数据是不是单帧图像,而是采用a sequence of short snippets sparsely sampled from the entire video(从短视频序列中稀疏采样)得到的,目的是为了获得long-range temporal structure(长距离时间结构)所做的改进。

总体流程过一遍就是:

输入一段视频V,被分为K段(segment),从每个segment中稀疏采样一个片段(snippet)。不同片段(snippet)的类别得分用段共识函数(The segmental consensus function)进行融合产生段共识(segmental consensus),这是一个视频级的预测。然后对所有模式的预测融合产生最终的预测结果。


2018.7.12更新

具体细节:

注意点:接下来“段”代表文章中的“segment”,“片段”代表文章中的“snippet”

给定一段视频V,把它按相等间隔分为K段{S_1,S_2,...,S_K}。接着,TSN按照如下方式对一些列片段进行建模:
TSN(T_1,T_2,...T_K)=H(G(F(T_1;W),F(T_2;W),...,F(T_K;W)))

  • (T_1,T_2,...,T_K)代表片段序列,每个片段T_K从它所对应的S_K中中随机采样得到。
  • F(T_K;W)函数表示采用W作为参数的卷积网络作用于短片段T_K,函数返回T_K相对于所有类别的得分。
  • 段共识函数G(The segmental consensus function)结合多个短片段的类别得分输出以获得他们之间关于类别假设的共识 。
  • 基于这个共识,预测函数H预测整段视频属于每个行为类别的概率 。

测试UCF-101数据集

仅rgb:

python tools/eval_net.py ucf101 1 rgb /data3/UCF-all-in-one/ucf_frame/ \ 
models/ucf101/tsn_bn_inception_rgb_deploy.prototxt \
models/ucf101_split_1_tsn_rgb_reference_bn_inception.caffemodel \
--num_worker 1 --save_scores rgb_score
rgb

仅flow:

python tools/eval_net.py ucf101 1 flow /data3/UCF-all-in-one/ucf_transed/ \
models/ucf101/tsn_bn_inception_flow_deploy.prototxt \
models/ucf101_split_1_tsn_flow_reference_bn_inception.caffemodel \
--num_worker 1 --save_scores ucf101/flow_score
flow

fusion:

python tools/eval_scores.py ucf101/rgb_score.npz ucf101/flow_score.npz --score_weights 1 1.5
fusion

C3D算法:

C3D C3D卷积网络是facebook公司提出的端到端的行为识别网络。可以直接处理视频。下面介绍一下2D与3D的区别: speed

a)和b)分别为2D卷积用于单通道图像和多通道图像的情况(此处多通道图像可以指同一张图片的3个颜色通道,也指多张堆叠在一起的图片,即一小段视频),对于一个滤波器,输出为一张二维的特征图,多通道的信息被完全压缩了。而c)中的3D卷积的输出仍然为3D的特征图。 3D卷积核是在空间和时间维度上进行操作,所以能捕捉到视频流的运动信息。

C3D网络结构:

speed

基于3D卷积操作,作者设计了如上图所示的C3D network结构。共有8次卷积操作,5次池化操作。其中卷积核的大小均为3∗3∗3,步长为1∗1∗1。池化核的大小为2∗2∗2,步长为2∗2∗2,但第一层池化除外,其大小和步长均为1∗2∗2。这是为了不过早缩减时序上的长度。最终网络在经过两次全连接层和softmax层后就得到了最终的输出结果。网络的输入尺寸为3∗16∗112∗112,即一次输入16帧图像。

实验结果:

行为识别用的数据库是UCF101,C3D+SVM的结果达到了85.2%。

[图片上传失败...(image-f3c8e5-1531382587511)]

算法 介绍 优缺点
iDT(传统方法) 深度学习领域外效果最好的方法。由DT算法而来。DT算法基本思路利用光流场来获取视频序列中的一些轨迹,再沿着轨迹提取HOF,HOG,MBH, trajectory4 四种特征。HOF基于灰度图计算,另外几个基于optical(密集光流)计算。最后对其进行特征编码,再基于编码结果训练SVM分类器。iDT利用前后两帧之间的光流和surf关键点进行匹配,从而消除/减弱相机运动带来的影响。 优点:稳定性最高,可靠性高 缺点:速度慢
Two-Stream(双流CNN) 基本原理为对视频序列中每两帧计算密集光流,得到密集光流的序列(即temporal信息)。然后对于视频图像(spatial)和密集光流(temporal)分别训练CNN模型,两个分支的网络分别对动作的类别进行判断,最后直接对两个网络的class score进行fusion(包括直接平均和svm两种方法),得到最终的分类结果。 优点:精度高UCF-101-96%缺点:速度慢,20fps
C3D(3D卷积) 通过3D卷积操作核去提取视频数据的时间和空间特征。这些3D特征提取器在空间和时间维度上操作,因此可以捕捉视频流的运动信息 。然后基于3D卷积特征提取器构造了一个3D卷积神经网络。这个架构可以从连续视频帧中产生多通道的信息,然后在每一个通道都分离地进行卷积和下采样操作。最后将所有通道的信息组合起来得到最终的特征描述。 优点:速度快300fps缺点:精度低UCF-101-85%

相关文章

  • 行为识别总结

    行为识别两大流派:(1)Two-Stream (2)C3D Two-Stream流派思想:利用视频帧图像(...

  • 人工智能与人类行为分析

    世界由万物的行为习惯与物理符号组成 人影响现实世界的六步骤 识别+分析——探究,研究员(陌生场景) 识别+总结——...

  • 作业-对汽车行业偷税漏税的数据探索-spss

    对汽车销售行业纳税人的各个属性指标进行分析,总结衡量纳税人的经营特征,建立偷漏税行为识别模型,识别偷漏税纳税人。 ...

  • 基于深度学习的视频行为分析总结

    一、什么是视频行为分析? 基于视频的行为识别包括两个主要问题,即行为定位和行为识别。行为定位即找到有行为的视频片段...

  • innerHTML与innerText

    总结:innerHTML可以识别HTML标签;innerText不识别

  • 【职场】312-关键影响力

    实施关键影响力的重点是识别关键行为,关键行为指的是能够直接推动目标实现的具体行为。要识别关键行为,就要先确定清晰、...

  • CI、BI、VI的区别是什么

    CI系统是由理念识别(Mind Identity 简称MI)、行为识别(Behavior Identity 简称B...

  • 467.解密孩子不当行为背后的密码(2)

    文/杜春娜 一. 识别及应对 我们通过以上的分享了解到了孩子不当行为产生的原因,下面我们学习如何识别是哪种不当行为...

  • 识别洗盘行为

    禁止财团操纵股价的办法出台之前,单个财团常常通过一系列有组织的活动让股价走出箱体形态。此类财团可能事先掌握了某公司...

  • 《人工智能基础》12/91天阅读

    视频行为识别: 行为是人类在执行某一任务的时候所发生的一连串动作。 视频行为识别是计算机分析给定视频数据,辨别出用...

网友评论

    本文标题:行为识别总结

    本文链接:https://www.haomeiwen.com/subject/eqijjftx.html