赞
踩
同时做时间和空间的超分。高分辨率可以提高运动细节,高帧率有利于做运动对齐。文中的方法是在ST-SR期间生成潜在的低分辨率和高分辨率表示的模型组件可用于微调仅针对空间SR或时间SR的专用机制。
作者提出了 Space-Time-Aware multi-Resolution Network STARnet。STARnet通过为ST-SR提供从LR到HR的直接连接,明确合并了在LR和HR空间中相互增强S-SR和T-SR的空间和时间表示,如图1(e)中的紫色箭头所示。
提供两帧低帧图片
(
I
t
l
,
I
t
+
1
l
)
(I_t^l, I_{t+1}^l)
(Itl,It+1l),大小为
(
M
l
×
N
l
)
(M^l \times N^l)
(Ml×Nl),超分结果是得到
(
I
t
s
r
,
I
t
+
n
s
r
,
I
t
+
1
s
r
)
,
n
∈
[
0
,
1
]
(I_t^{sr}, I_{t+n}^{sr}, I_{t+1}^{sr}), n \in [0,1]
(Itsr,It+nsr,It+1sr),n∈[0,1],大小为
(
M
h
×
N
h
)
(M^h \times N^h)
(Mh×Nh),目标是产生
{
I
t
s
r
}
t
=
1
T
+
\{I_t^{sr}\}_{t=1}^{T+}
{Itsr}t=1T+。
网络分成了三个步骤:
这部分主要实现S-SR,T-SR,ST-SR的联合学习。输入时两张低帧RGB图
(
I
t
l
,
I
t
+
1
l
)
(I_t^l, I_{t+1}^l)
(Itl,It+1l),和他们的双向光流图
(
F
t
→
t
+
1
,
F
t
+
1
→
t
)
(F_{t \to t+1}, F_{t+1\to t})
(Ft→t+1,Ft+1→t)
第一个阶段的输出是中间帧的HR和LR特征
H
t
+
n
H_{t+n}
Ht+n和
L
t
+
n
L_{t+n}
Lt+n。
在这个阶段STARnet保持周期一致性1)S-HR和S-LR,2)t和t+1。
进一步保持循环一致性,以再次完善特征图。
通过只使用一层卷积将四个特征
(
H
^
t
,
H
^
t
+
n
,
H
^
t
+
1
,
L
^
t
+
n
)
(\hat H_t, \hat H_{t+n}, \hat H_{t+1}, \hat L_{t+n})
(H^t,H^t+n,H^t+1,L^t+n)转换成对应的图像
(
I
t
s
r
,
I
t
+
n
s
r
,
I
t
+
1
s
r
,
I
t
+
n
l
)
(I_t^{sr}, I_{t+n}^{sr}, I_{t+1}^{sr}, I_{t+n}^l)
(Itsr,It+nsr,It+1sr,It+nl)。
S-HR图像作为gt, T-HR帧也作为gt,loss可以写为
Space loss
I
t
s
r
I_t^{sr}
Itsr,
I
t
+
1
s
r
I_{t+1}^{sr}
It+1sr
Times loss
I
t
+
n
l
I_{t+n}^l
It+nl
Space-Time loss
I
t
+
n
s
r
I_{t+n}^{sr}
It+nsr
Loss函数
上面每个loss都包含了
L
1
L_1
L1项和
L
v
g
g
L_vgg
Lvgg项。
大的运动视频插帧很难。大的运动引起的flow noise对插值结果有不良影响。作者提出了一个简单的方案可以refine或者denoise flow image, flow refinement(FR) module。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。