赞
踩
论文名称: Deep High-Resolution Representation Learning for Human Pose Estimation
论文下载地址:https://arxiv.org/abs/1902.09212
官方源码地址:https://github.com/leoxiaobin/deep-high-resolution-net.pytorch
在bilibili上的视频讲解:https://www.bilibili.com/video/BV1bB4y1y7qP
这篇文章是由中国科学技术大学和亚洲微软研究院在2019年共同发表的。这篇文章中的HRNet(High-Resolution Net)是针对2D人体姿态估计(Human Pose Estimation或Keypoint Detection)任务提出的,并且该网络主要是针对单一个体的姿态评估(即输入网络的图像中应该只有一个人体目标)。人体姿态估计在现今的应用场景也比较多,比如说人体行为动作识别,人机交互(比如人作出某种动作可以触发系统执行某些任务),动画制作(比如根据人体的关键点信息生成对应卡通人物的动作)等等。
对于Human Pose Estimation任务,现在基于深度学习的方法主要有两种:
regressing
的方式,即直接预测每个关键点的位置坐标。heatmap
的方式,即针对每个关键点预测一张热力图(预测出现在每个位置上的分数)。当前检测效果最好的一些方法基本都是基于heatmap
的,所以HRNet也是采用基于heatmap
的方式。
下图是我根据阅读项目源码绘制的关于HRNet-W32
的模型结构简图,在论文中除了提出HRNet-W32
外还有一个HRNet-W48
的版本,两者区别仅仅在每个模块所采用的通道个数不同,网络的整体结构都是一样的。而该论文的核心思想就是不断地去融合不同尺度上的信息,也就是论文中所说的Exchange Blocks
。
通过上图可以看出,HRNet首先通过两个卷积核大小为3x3
步距为2的卷积层(后面都跟有BN以及ReLU)共下采样了4倍。然后通过Layer1
模块,这里的Layer1
其实和之前讲的ResNet中的Layer1
类似,就是重复堆叠Bottleneck
,注意这里的Layer1
只会调整通道个数,并不会改变特征层大小。下面是实现Layer1
时所使用的代码。
# Stage1
downsample = nn.Sequential(
nn.Conv2d(64, 256, kernel_size=1, stride=1, bias=False),
nn.BatchNorm2d(256, momentum=BN_MOMENTUM)
)
self.layer1 = nn.Sequential(
Bottleneck(64, 64, downsample=downsample),
Bottleneck(256, 64),
Bottleneck(256, 64),
Bottleneck(256, 64)
)
接着通过一系列Transition
结构以及Stage
结构,每通过一个Transition
结构都会新增一个尺度分支。比如说Transition1
,它在layer1
的输出基础上通过并行两个卷积核大小为3x3
的卷积层得到两个不同的尺度分支,即下采样4倍的尺度以及下采样8倍的尺度。在Transition2
中在原来的两个尺度分支基础上再新加一个下采样16倍的尺度,注意这里是直接在下采样8倍的尺度基础上通过一个卷积核大小为3x3
步距为2的卷积层得到下采样16倍的尺度。如果有阅读过原论文的小伙伴肯定会有些疑惑,因为在论文的图1中,给出的Transition2
应该是通过融合不同尺度的特征层得到的(下图用红色矩形框框出的部分)。但根据源码的实现过程确实就和我上面图中画的一样,就一个3x3
的卷积层没做不同尺度的融合,包括我看其他代码仓库实现的HRNet都是如此。大家也可以自己看看源码对比一下。
简单介绍完Transition
结构后,在来说说网络中最重要的Stage
结构。为了方便大家理解,这里以Stage3
为例,对于每个尺度分支,首先通过4个Basic Block
,没错就是ResNet里的Basic Block
,然后融合不同尺度上的信息。对于每个尺度分支上的输出都是由所有分支上的输出进行融合得到的。比如说对于下采样4倍分支的输出,它是分别将下采样4倍分支的输出(不做任何处理) 、 下采样8倍分支的输出通过Up x2上采样2倍 以及下采样16倍分支的输出通过Up x4上采样4倍进行相加最后通过ReLU得到下采样4倍分支的融合输出。其他分支也是类似的,下图画的已经非常清楚了。图中右上角的x4
表示该模块(Basic Block
和Exchange Block
)要重复堆叠4次。
接着再来聊聊图中的Up
和Down
究竟是怎么实现的,对于所有的Up
模块就是通过一个卷积核大小为1x1
的卷积层然后BN
层最后通过Upsample
直接放大n倍得到上采样后的结果(这里的上采样默认采用的是nearest
最邻近插值)。Down
模块相比于Up
稍微麻烦点,每下采样2倍都要增加一个卷积核大小为3x3
步距为2的卷积层(注意下图中Conv
和Conv2d
的区别,Conv2d
就是普通的卷积层,而Conv
包含了卷积、BN以及ReLU激活函数)。
最后,需要注意的是在Stage4
中的最后一个Exchange Block
只输出下采样4倍分支的输出(即只保留分辨率最高的特征层),然后接上一个卷积核大小为1x1
卷积核个数为17(因为COCO数据集中对每个人标注了17个关键点)的卷积层。最终得到的特征层(64x48x17
)就是针对每个关键点的heatmap(热力图)。
关于预测得到的heatmap(热力图)听起来挺抽象的,为了方便大家理解,我画了下面这幅图。首先,左边是输入网络的预测图片,大小为256x192
,为了保证原图像比例,在两侧进行了padding。右侧是我从预测结果,也就是heatmap(64x48x17
)中提取出的部分关键点对应的预测信息(48x17x1
)。上面有提到过,网络最终输出的heatmap分辨率是原图的
1
4
\frac{1}{4}
41,所以高宽分别对应的是64和48,接着对每个关键点对应的预测信息求最大值的位置,即预测score最大的位置,作为预测关键点的位置,映射回原图就能得到原图上关键点的坐标(下图有画出每个预测关键点对应原图的位置)。
但在原论文中,对于每个关键点并不是直接取score最大的位置(如果为了方便直接取其实也没太大影响)。在原论文的4.1章节中有提到:
Each keypoint location is predicted by adjusting the highest heatvalue location with a quarter offset in the direction from the highest response to the second highest response.
光看文字其实还是不太明白,下面是源码中对应的实现,其中coords是每个关键点对应预测score最大的位置:
for n in range(coords.shape[0]):
for p in range(coords.shape[1]):
hm = batch_heatmaps[n][p]
px = int(math.floor(coords[n][p][0] + 0.5))
py = int(math.floor(coords[n][p][1] + 0.5))
if 1 < px < heatmap_width-1 and 1 < py < heatmap_height-1:
diff = np.array(
[
hm[py][px+1] - hm[py][px-1],
hm[py+1][px]-hm[py-1][px]
]
)
coords[n][p] += np.sign(diff) * .25
如果看不懂的话可以再看下我下面画的这副图。假设对于某一关键点的预测heatmap如下所示,根据寻找最大score可以找到坐标(3, 3)点,接着分别对比该点左右两侧(x方向),上下两侧(y方向)的score。比如说先看左右两侧,明显右侧的score比左侧的大(蓝色越深代表score越大),所以最终预测的x坐标向右侧偏移0.25故最终x=3.25,同理上侧的score比下侧大,所以y坐标向上偏移0.25故最终y=2.75。
关于COCO数据集中标注的17个关键点的顺序如下:
"kps": ["nose","left_eye","right_eye","left_ear","right_ear","left_shoulder","right_shoulder","left_elbow","right_elbow","left_wrist","right_wrist","left_hip","right_hip","left_knee","right_knee","left_ankle","right_ankle"]
最后把每个关键点绘制在原图上,就得到如下图所示的结果。
在论文第3章Heatmap estimation
中作者说训练采用的损失就是均方误差Mean Squared Error
。
The loss function, defined as the mean squared error, is applied for comparing the predicted heatmaps and the groundtruth heatmaps. The groundtruth heatmpas are generated by applying 2D Gaussian with standard deviation of 1 pixel centered on the grouptruth location of each keypoint.
通过前面讲的内容我们知道网络预测的最终结果是针对每个关键点的heatmap,那训练时对应的GT又是什么呢。根据标注信息我们是可以得知每个关键点的坐标的(原图尺度),接着将坐标都除以4(缩放到heatmap尺度)在进行四舍五入。针对每个关键点,我们先生成一张值全为0的heatmap,然后将对应关键点坐标处填充1就得到下面左侧的图片。如果直接拿左侧的heatmap作为GT去训练网络的话,你会发现网络很难收敛(可以理解为针对每个关键点只有一个点为正样本,其他64x48-1
个点都是负样本,正负样本极度不均),为了解决这个问题一般会以关键点坐标为中心应用一个2D的高斯分布(没有做标准化处理)得到如右图所示的GT(随手画的不必深究)。利用这个GT heatmap
配合网络预测的heatmap就能计算MSE损失了。
下面这幅图是某张真实训练样本(左侧)对应nose关键点的GT heatmap
(右侧)。
我们知道如何计算每个关键点对应的损失后还需要留意一个小细节。代码中在计算总损失时,并不是直接把每个关键点的损失进行相加,而是在相加前对于每个点的损失分别乘上不同的权重。下面给出了每个关键点的名称以及所对应的权重。
"kps": ["nose","left_eye","right_eye","left_ear","right_ear","left_shoulder","right_shoulder","left_elbow","right_elbow","left_wrist","right_wrist","left_hip","right_hip","left_knee","right_knee","left_ankle","right_ankle"]
"kps_weights": [1.0, 1.0, 1.0, 1.0, 1.0, 1.0, 1.0, 1.2, 1.2, 1.5, 1.5, 1.0, 1.0, 1.2, 1.2, 1.5, 1.5]
在目标检测(Object Detection)任务中可以通过IoU
(Intersection over Union)作为预测bbox和真实bbox之间的重合程度或相似程度。在关键点检测(Keypoint Detection)任务中一般用OKS(Object Keypoint Similarity)来表示预测keypoints与真实keypoints的相似程度,其值域在0到1之间,越靠近1表示相似度越高。在MS COCO官网中有详细介绍OKS指标,详情参考: https://cocodataset.org/#keypoints-eval
O
K
S
=
∑
i
[
e
−
d
i
2
/
2
s
2
k
i
2
⋅
δ
(
v
i
>
0
)
]
∑
i
[
δ
(
v
i
>
0
)
]
OKS = \frac{{\textstyle \sum_{i}^{}} [e^{{-d_i^2}/{2s^2}{k_i^2}} \cdot \delta(v_i>0)]}{ {\textstyle \sum_{i}^{}} [\delta(v_i>0)]}
OKS=∑i[δ(vi>0)]∑i[e−di2/2s2ki2⋅δ(vi>0)]
其中:
scale s which we define as the square root of the object segment area
,这里的面积应该指的是分割面积。该数据在COCO数据集标注信息中都是有提供的。κi is a per-keypont constant that controls falloff
,这个常数是在验证集(5000张)上统计得到的,具体如何计算
k
i
k_i
ki参考官网中1.3. Tuning OKS
的介绍。如果想要学习HRNet代码的话,不太建议直接去读官方源码。因为环境配置有些小问题,而且看起来令人头大。建议看我提供的HRNet仓库代码,我对原仓库代码做了一些修改,并加了很多注释,学习起来会更方便点。先给出链接,这周周末会上传代码:https://github.com/WZMIAOMIAO/deep-learning-for-image-processing/tree/master/pytorch_keypoint/HRNet
在论文中作者采用的数据增强有:随机旋转(在
−
4
5
∘
-45^{\circ}
−45∘到
4
5
∘
45^{\circ}
45∘之间),随机缩放(在0.65到1.35之间),随机水平翻转以及half body
(有一定概率会对目标进行裁剪,只保留半身关键点,上半身或者下半身)。在源码中,作者主要是通过仿射变换来实现的以上操作,如果对仿射变换不太了解看代码会比较吃力。
假设对于输入网络图片固定尺寸是256x192
(height : width = 4 : 3),但要预测的人体目标的高宽比不是4 : 3,此时千万不要直接简单粗暴的拉伸到256x192
(如下图左侧所示),正确的方法是保持目标原比例缩放到对应尺度然后再进行相应的padding(如下图中间所示,由于目标的height : width > 4 : 3,所以保持原比例将height缩放到256,然后在图片width两测进行padding得到256x192
)。如果拥有原始图像的上下文信息的话可以直接在原图中固定height(目标height : width > 4 : 3的情况)然后调整width保证height : width = 4 : 3,再重新裁剪目标并缩放到256x192
(如下图右侧所示)。这样预测的结果才是准确的。如果直接简单粗暴的拉伸目标,准确率会明显下降。因为作者源码中训练网络时始终保证目标的比例不变,那么我们在预测时也要保证相同的处理方式,即保证目标比例不变。之前我在COCO2017 val数据上对齐论文精度时,就是由于没有注意这个细节,导致精度差了十几个点(⊙﹏⊙)。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。