赞
踩
论文:iSeeBetter:使用递归生成反投影网络的时空视频超分
文章检索出处: 2020 arXiv
读后感:本文模型使用RBPN作为生成器,SRGAN的判别器作为判别器。使用了四个损失函数。有关RBPN模型的内容详见之前的文章:视频超分:RBPN(Recurrent Back-Projection Network for Video Super-Resolution)
本文提出一种基于GAN的视频超分方法—iSeeBetter。创新点如下:
使用双三次插值进4倍下采样,训练/验证/测试分别为80%/10%/10%。数据集摘要如下图:
输入
L
R
t
LR_t
LRt帧、相邻帧和光流的输出帧,RBPN作为一个生成器负责生成
S
R
t
SR_t
SRt帧。然后将生成的
S
R
t
SR_t
SRt馈入到SRGAN鉴别器网络中去验证真实性。
其中
V
G
G
i
,
j
VGG_{i,j}
VGGi,j表示第
i
t
h
i^{th}
ith个池化层之前
j
t
h
j^{th}
jth卷积(激活后)的特征图。
3. 对抗损失: 我们最小化
−
l
o
g
(
D
θ
D
(
G
θ
G
(
L
R
t
)
)
)
-log(D_{\theta D}(G_{\theta G}(LR_{t})))
−log(DθD(GθG(LRt)))而不是
l
o
g
(
1
−
D
θ
D
(
G
θ
G
(
L
R
t
)
)
)
log(1-D_{\theta D}(G_{\theta G}(LR_{t})))
log(1−DθD(GθG(LRt)))去获得更好的梯度行为。
4. 全变差损失(TV): 定义为相邻像素在水平和垂直方向的绝对差之和。由于TV测量输入的噪声,将它最小化作为我们整体损失的一部分,可以帮助去噪输出的SR图像,从而使空间平滑。定义如下。
生成器的损失如下。
其中
α
,
β
,
γ
,
δ
\alpha,\beta,\gamma,\delta
α,β,γ,δ的权重为1,6 x
1
0
−
3
10^{-3}
10−3,
1
0
−
3
10^{-3}
10−3,2 x
1
0
−
8
10^{-8}
10−8。鉴别器的损失如下。
总的损失为:
消融实验,验证本文架构的正确性:
不同模型的量化评估:
细节图对比:
仅供学习使用,请勿转载。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。