当前位置:   article > 正文

高糊视频秒变4K,速度比TecoGAN快了9倍!东南大学提出新的视频超分辨率系统

lightweight video diffusion model
博雯 发自 凹非寺
量子位 报道 | 公众号 QbitAI

把高糊视频变清晰,对于AI而言算不上新鲜事。

但如果是实时处理,而且速度比主流方法还快了9倍呢?

而且计算量降低了,重建图像的质量却还非常能打:

这种图像质量和速度性能之间的平衡到底是怎么做到的?

今天就来看看东南大学的研究者们带来的最新研究:4K视频实时超分辨率系统EGVSR

GAN保证重建质量

为了使模型具有良好的感知质量,生成对抗网络GAN成为了超分辨率研究中广泛使用的一种方法。

比如,要处理VSR任务中大规模的分辨率退化,就常常依靠GAN的深度特征学习能力。

于是参考TecoGAN的设计,EGVSR系统引入了空间-时间对抗结构,用来帮助判别器理解和学习空间-时间信息的分布。

也避免了传统GAN在时域遇到的不稳定效应。

同时,研究者参照高效CNN架构,为EGVSR设计了一个轻量级的网络结构:

EGVSR生成器的部分框架

其中,生成器部分分为FNet模块和SRNet模块,分别用于光流估计和视频帧超分辨率。

接下来,就是增强EGVSR的实时处理能力了。

三种方法提升速度

研究者主要通过三种方法来提高网络训练和推理的速度。

一、对BN层进行优化

在EGVSR网络中,FNet模块里大量使用了BN(批量归一化)层。

因此,研究者省去计算BN的环节,将其转换为矩阵形式,利用1×1卷积层来实现和替换BN层:

优化之后,速度就提高了5%左右。

二、寻找高效的上采样方法

上采样层(Upsampling layer)是超分辨率网络中最重要的部分之一。

因此,在保持其他网络结构和配置的情况下,研究者希望从以下三种上采样方法中,选择出一种在实际SR网络中效率最高的:

A.调整大小卷积(使用双线性插值)

B.去卷积(Deconvolution)

C.子像素卷积(Sub-pixel convolution)

在使用这三种方法训练了多组SR网络后,可以看到子像素卷积方法的效果最佳:

三、设计一种适合硬件部署的高效卷积算法

传统的朴素卷积(Nnaïve Convolution)方法使用了6个循环结构,这导致它的计算效率相当低。

因此,研究者们使用矩阵乘法(MatMul)算法通过逆向col2im转换得到所需的输出特征结果。

这样,就将卷积计算转换为了矩阵乘法。

也就通过内存空间节省了推理时间,最终提高计算效率。

性能提升7.92倍

那么最终速度提升的效果如何呢?

可以看到,在使用CPU时,对比经典的TecoGAN算法,VESPCN的速度最高能提升9.05倍。

而在使用GPU加速时,VESPCN最高也能比TecoGAN的性能提升7.92倍。

如果从总计算成本来看,EGVSR仅为VESPCN的29.57%,SOFVSR的12.63%,FRVSR和TecoGAN的14.96%。

与此同时,EGVSR也取得了较高的图像细节重建质量,结果最接近GT(Ground Truth)图像:

而对于多张图像之间的连贯性评估,研究者们引入了两个指标来衡量VSR结果与相应的GT参考结果之间的差异:

tOF:测量从序列中估计的运动的像素差异;

tLP:使用深度特征图测量感知上的变化。

从结果可以看到VESPCN的分数最小:

这说明了在满足时间连贯性的情况下,EGVSR网络可以恢复更多的空间细节,满足人眼的主观感受。

所有实验的结果都表明,EGVSR确实在保证VSR高视觉质量的前提下,将计算负载降低到最低要求,完成了4K VSR在硬件平台上的实时实现。

研究团队

论文的前三位作者都来自东南大学的国际信息显示与可视化联合研究实验室。

一作Yanpeng Cao目前研究生在读,主要研究方向为加密域图像处理和图像超分辨率等领域。

其余两位分别是Chengcheng Wang和Changjun Song。

最后一位作者He Li来自剑桥大学的工程系。

论文地址:
https://arxiv.org/abs/2107.05307

下载:
https://github.com/Thmen/EGVSR

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/代码探险家/article/detail/943667
推荐阅读
相关标签
  

闽ICP备14008679号