当前位置:   article > 正文

VALSE 2024 Workshop报告分享┆Open-Sora Plan视频生成开源计划——进展与不足_valse2024

valse2024

2024年视觉与学习青年学者研讨会(VALSE 2024)于55日到7日在重庆悦来国际会议中心举行。本公众号将全方位地对会议的热点进行报道,方便广大读者跟踪和了解人工智能的前沿理论和技术。欢迎广大读者对文章进行关注、阅读和转发。文章是对报告人演讲内容的理解或转述,可能与报告人的原意有所不同,敬请读者理解;如报告人认为文章与自己报告的内容差别较大,可以联系公众号删除。

本文主要对来自北京大学的袁粒老师所做的Workshop报告《Open-Sora Plan视频生成开源计划——进展与不足》进行总结和分享。

1.报告人简介

袁粒,北京大学信息工程学院助理教授、博士生导师,研究方向为深度视觉神经网络设计和多模态机器学习。

2.报告概览

袁老师在报告中首先对视觉生成理论与应用的年度进展进行了概述。从2023年2月OpenAI提出了Consistency Models生成模型,到2024年2月提出Sora文本生成视频模型,从而引发巨大关注。然而由于Sora完全闭源且无API接口和使用通道,北京大学和新加坡国立大学团队分别发起了Sora复现计划,希望集聚开源社区的力量复现出开源版本的Sora。

3.内容整理

袁老师的报告主要分为四个部分,下面逐一加以详细介绍

(1)框架解析

1)在整体框架上,它将由Video VQ-VAE、Denoising Diffusion Transformer(去噪扩散型Transformer)、Condition Encoder(条件编码器)三部分组成,如图1所示。

图 1 模型整体框架

2)在训练数据准备上,有两种方案。其一是爬取高质量视频数据,然后进行高质量视频文本标注;其二是通过文本驱动物理引擎合成视频,具有视频-文本对齐度和细粒度高、生成速度快的特点。

(2)模型训练

1)注意力掩码机制支持任意比例视频输入,兼容不同的视频输入分辨率及分辨时长,已验证有效。

2)NaVit模块已经融合进框架,目前正在验证其效果。

(3)当前进展

2024年4月,袁老师团队推出了Open-Sora-Plan v1.0.0,支持图像和视频的联合训练,具有强大的视频/图像重建和生成的功能,如图2和3所示,验证了框架的可行性。与之前的视频生成模型相比,Open-Sora-Plan v1.0.0 有几点改进,具体包括:

1)使用CausalVideoVAE 进行高效训练和推理。研究团队对视频进行时空压缩达到 4×8×8。

2)采用图像-视频联合培训,提高生成内容的质量。CausalVideoVAE 将第一帧视为图像,允许以自然的方式同时对图像和视频进行编码,这使得扩散模型能够掌握更多的空间视觉细节,从而提高生成内容的质量。

图 2 图像重建效果

图 3 文本生成图像

(4)未来计划

1)现有问题

CausalVideoVAE仍然有待提高,它有两个主要缺点:运动模糊和网格化效果。同时,当前的时长和泛化性也有待提高,泛化性需要更多数据,同时各个模块需要进行加速。此外,数据对齐会影响生成的准确度,合成数据极其重要。

2)三阶段复现目标

第一阶段:初步验证当前框架的有效性。

第二阶段:在有效框架基础上训练出更多数据和更大算力,希望训练出生成视频时长达到20秒以上且图像清晰度达到720P的模型。

第三阶段:拓展生成的泛化性、场景多样性等,更加逼近Sora的时长和效果。

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Monodyee/article/detail/655586
推荐阅读
相关标签
  

闽ICP备14008679号