摘要
Stacked Hourglass(Stacked HG, 堆叠沙漏)网络最早出现在2016年的<<Stacked Hourglass Networks for Human Pose Estimation
>>一文,作者来自密西根大学。作者通过提出该网络结构来定位人体的关键点,从而完成人体姿态的估计。Stacked HG网络的作用是通过估计人体关键点的热度图来实现关键点的定位。目前,基于该网络结构的各种变种算法,牢牢占据了姿态检测的半壁江山,并且在人脸关键点定位领域,Stacked HG也得到了越来越多的应用(如2017年的FAN,2018年的LAB等算法)。
网络由来
-
CNN的多层次特征
CNN深度卷积网络如vgg16,resnet,近几年在推动人工智能的发展上,做出了巨大的贡献,原因就在于CNN可以自动提取对分类/检测/识别任务有帮助的特征,不再需要传统人工设计特征,如SIFT/HOG等。
CNN通常含有很深的网络层,每一层代表对图像的特征提取,被称为feature map。随着网络层数的加深,通常由于pooling 或者stride=2的conv操作,使得feature map的尺寸逐渐减小,从而形成不同尺度下的特征图。卷积网络对图像特征的提取,是随着网络的层数的加深,而从低层特征描述逐渐抽象为高层特征描述。以前估计姿态的网络结构(如DeepPose),大多只使用最后一层的卷积特征,这样进利用单一尺度下的特征度来进行人体关键点定位,会造成信息的丢失。 -
多尺度特征
对于人体姿态估计这种关联型任务,全身不同的关节点,并不是在相同的feature map上具有最好的识别精度。举例来说,胳膊可能在第3层的feature map上容易识别,而头部在第5层上更容易识别,见下图。所以,需要设计一种可以同时使用多个feature map的网络结构。
image.png -
HourGlass 捕捉每一个尺度下的信息
如论文所述,HG的设计动机是对于在每一个尺度下捕捉信息的需求。尽管局部信息对于识别人面部,手部特征很有效,但对于人体姿态的最终估计则需要对整个人体的联合理解。人体的方位,四肢的布局,关节点之间的关系等这些线索都可能是在在不同尺度下获得的最佳识别结果。
网络结构
- Hourglass
总体来讲,Hourglass网络结构是一种简单的,具有捕捉各尺度下信息能力的最小设计。同时,它兼顾了“ bottom-up”(从高分辨率到低分辨率)和“top-down”之间的对称分布(FCN这种属于严重的bottom-up设计)。从结构上,HG可看作是conv-deconv或者encoder-decoder的结构。从输入开始,经过多次的降采样到4x4,再经过同等次数的上采样将featuremap 恢复成原输入大小。
具体来讲,HG是一个递归的过程。一个n阶HG的输入是64x64(对于一个256大小的输入,需经过7x7conv,maxpool将其降采样至64x64,选择64的原因是为了节省计算量),然后输入会经过两个分支: 低分辨率分支(low resresolution)和高分辨率分支。高分辨率分支是一个残差块(up1模块),低分辨率分支由 一个maxpool-residual(low1模块),串联一个残差块或n-
阶HG(low2模块)组成,最后,低分辨率分支经过upSampling-residual(up0模块) 与高分辨率分支的输出相加。其中,整个网络中的残差块输入输出尺寸相等。
- Stacked HG
如下图所示,含有1个HG单元的网络经HG 后经过參差-conv-relu-bn- 1x1conv输出N 个64x64
热度图[64,64, N_Landmark]。由于一个独立的HG的输入输出都是64x64,因此多个HG可按顺序在深度方向上进行堆叠。其中后一个HG的输入是由3个部分构成:前一个HG的输入, 输出经1x1卷积(Conv_2), 倒数第2层经1x1卷积(Conv_3),如下图所示。最后一层的HG输出为Conv_1,注: 最后一个1x1卷积(下图中的conv_1即为最后一个输出层)的通道数为关键点数N_Landmark,尺寸为64x64,即所有关键点的热度图()。
多个HG堆叠时前后HG输入输出关系
代码实现
# --------------------------Method 2 --------------------------------------------
class StackedHG2:
def __init__(self, resolution_inp=256, channel=3, name='stackedhg'):
self.name = name
self.channel = channel
self.resolution_inp = resolution_inp
def res_blk(self, x, num_outputs, kernel_size, stride=1, scope=None):
"""
參差单元,包含两个分支: 常规的深度分支和shortcut分支,
深度分支(这里实现的是深层结构resnet50的參差单元结构) 由1个1x1卷积(通道降维),1个3x3卷积,1个1x1卷积(通道升维) 串联组成,其中每个卷积后都做relu和batchnorm
shortcut分支有两种情况:当參差单元的输入输出shape不一致时(stride=2),shortcut包含一个1x1卷积,否则shortcut等于输入x
输出为shortcut分支和深度分支的元素和(带relu)
:param x: input tensor
:param num_outputs: number channels of output
:param kernel_size:
:param stride:
:param scope:
:return:
"""
with tf.variable_scope(scope, "resBlk"):
with arg_scope([tcl.conv2d],
activation_fn=tf.nn.relu,
normalizer_fn=tcl.batch_norm,
padding="SAME"):
small_ch = num_outputs // 4
conv1 = tcl.conv2d(x, small_ch, kernel_size=1, stride=stride)
conv2 = tcl.conv2d(conv1, small_ch, kernel_size=kernel_size, stride=1)
conv3 = tcl.conv2d(conv2, num_outputs, kernel_size=1, stride=1)
shortcut = x
if stride != 1 or x.get_shape()[-1] != num_outputs:
shortcut = tcl.conv2d(x, num_outputs, kernel_size=1, stride=stride, scope="shortcut")
out = tf.add(conv3, shortcut)
out = tf.nn.relu(out)
return out
def hour_glass(self, x, level, num_outputs, scope=None):
"""
single hour glass network 升级版. 可看做一个递归过程: hg(n)的输入x经过两个分支:下采样分支和求和分支,
求和分支是一个残差快(resblock), 下采样分支是一个 maxpool-resblock 串联 一个残差快[n=1时]或hg(n-1),
然后hg(n-1)经过 resblock-上采样 后会求和分支进行按元素相加,输出相加的结果
:param x:input tensor
:param level: times of down sampling, i.e., hg(n) n的最大值
:param num_outputs: number of output channel
:param scope:
:return:
"""
with tf.variable_scope(scope, 'hourglass'):
add_branch = self.res_blk(x, num_outputs, 3, 1, scope='up1')
down_sampling = tf.contrib.layers.max_pool2d(x, [2, 2], [2, 2], 'VALID')
down_sampling = self.res_blk(down_sampling, num_outputs, 3, 1, scope='low1')
if level > 1:
center = hour_glass1(down_sampling, level - 1, num_outputs, scope='low2')
else:
center = self.res_blk(down_sampling, num_outputs, 3, 1, scope='low2')
up_sampling = self.res_blk(center, num_outputs, 3, 1, scope='low3')
up_sampling = tf.image.resize_nearest_neighbor(up_sampling, tf.shape(up_sampling)[1:3] * 2,
name='upsampling')
add_out = tf.add(add_branch, up_sampling)
return add_out
def __call__(self, x, stage=4, is_training=True):
"""
堆叠多个HG。由基础网络,stage x HG 串联组成,
基础网络是 1个7x7卷积,1个參差,1个池化,2个參差串联组成
HG网络包括hourglass 和 post网络组成,hourglass 的输出经过1个參差,1个卷积-relu-bn, 1个卷积(1x1,)输出N_landmark个热度图
第i(i>1)个HG的输入是(i-1)个HG 中3部分的元素和: 输入, 输出层out经1x1卷积, 输出out的上一层经过1x1卷积。
:param x: input tensor [batch, 256,256,3]
:param stage: int, number of hourglass to stack, default is 4
:param is_training: bool, train of test
:return:
"""
with tf.variable_scope(self.name) as scope:
with arg_scope([tcl.batch_norm], is_training=is_training, scale=True):
with arg_scope([tcl.conv2d],
activation_fn=None,
padding="SAME"):
base = tcl.conv2d(x, 64, kernel_size=7, stride=2,
activation_fn=tf.nn.relu, normalizer_fn=tcl.batch_norm)
base = self.res_blk(base, 128, 3, 1)
base = tcl.avg_pool2d(base, kernel_size=2, stride=2)
base = self.res_blk(base, 128, 3, 1)
base = self.res_blk(base, 256, 3, 1)
inputs = base
for i in range(0, stage):
with tf.variable_scope('hg%d' % i):
hg = self.hour_glass(inputs, 4, 256)
# post
top_hg = self.res_blk(hg, 256, 3, 1)
previous = tcl.conv2d(top_hg, 256, kernel_size=1, stride=1,
activation_fn=tf.nn.relu, normalizer_fn=tcl.batch_norm)
out = tcl.conv2d(previous, 68, kernel_size=1, stride=1)
if i < stage - 1:
al = tcl.conv2d(out, 256, kernel_size=1, stride=1)
bl = tcl.conv2d(previous, 256, kernel_size=1, stride=1)
sum_ = tf.add(bl, inputs)
sum_ = tf.add(sum_, al)
inputs = sum_
return out
运行
# -------------------------- Demo and Test --------------------------------------------
batch_size = 16
num_batches = 100
def time_tensorflow_run(session, target, feed, info_string):
"""
calculate time for each session run
:param session: tf.Session
:param target: opterator or tensor need to run with session
:param feed: feed dict for session
:param info_string: info message for print
:return:
"""
num_steps_burn_in = 10 # 预热轮数
total_duration = 0.0 # 总时间
total_duration_squared = 0.0 # 总时间的平方和用以计算方差
for i in range(num_batches + num_steps_burn_in):
start_time = time.time()
_ = session.run(target, feed_dict=feed)
duration = time.time() - start_time
if i >= num_steps_burn_in: # 只考虑预热轮数之后的时间
if not i % 10:
print('[%s] step %d, duration = %.3f' % (datetime.now(), i - num_steps_burn_in, duration))
total_duration += duration
total_duration_squared += duration * duration
mn = total_duration / num_batches # 平均每个batch的时间
vr = total_duration_squared / num_batches - mn * mn # 方差
sd = math.sqrt(vr) # 标准差
print('[%s] %s across %d steps, %.3f +/- %.3f sec/batch' % (datetime.now(), info_string, num_batches, mn, sd))
# test demo
def run_benchmark():
"""
main function for test or demo
:return:
"""
with tf.Graph().as_default():
image_size = 256 # 输入图像尺寸
images = tf.Variable(tf.random_normal([batch_size, image_size, image_size, 3], dtype=tf.float32, stddev=1e-1))
# method 0
# prediction = hour_glass(images, 256, "hg")
# prediction = hour_glass1(images, 3, 256, "hg")
model = StackedHG2(image_size, 3)
prediction = model(images, 4)
fc = prediction
params = tf.trainable_variables()
for v in params:
print(v)
init = tf.global_variables_initializer()
print("out shape ", prediction)
sess = tf.Session()
print("init...")
sess.run(init)
print("predict..")
writer = tf.summary.FileWriter("./logs")
writer.add_graph(sess.graph)
time_tensorflow_run(sess, prediction, {}, "Forward")
# 用以模拟训练的过程
objective = tf.nn.l2_loss(fc) # 给一个loss
grad = tf.gradients(objective, params) # 相对于loss的 所有模型参数的梯度
print('grad backword')
time_tensorflow_run(sess, grad, {}, "Forward-backward")
writer.close()
if __name__ == '__main__':
run_benchmark()
参数量
时间效率
参考
https://www.zhihu.com/question/56024942
https://blog.csdn.net/wangzi371312/article/details/81174452
https://blog.csdn.net/shenxiaolu1984/article/details/51428392
https://blog.csdn.net/u013841196/article/details/81048237
网友评论