当前位置:   article > 正文

每日AIGC最新进展(45):字节跳动开源大规模text-to-video数据集OpenVid-1M、浙江大学提出锚定条件控制视频生成GVDIFF、Meta AI研究院提出文生3D大模型3DGen

openvid

Diffusion Models专栏文章汇总:入门与实战

OpenVid-1M: A Large-Scale High-Quality Dataset for Text-to-video Generation

https://nju-pcalab.github.io/projects/openvid

OpenVid-1M是一个大规模、高质量的文本到视频(Text-to-video, T2V)数据集,旨在推动T2V生成领域的研究。该数据集包含超过一百万段具有高美学标准、清晰度和表达性字幕的视频片段。它解决了现有数据集质量不高或体积过大不适合大多数研究机构使用的问题,并强调了充分利用文本信息的重要性

文本到视频(T2V)一代最近引起了极大的关注,这主要是由于先进的多模态模式Sora。然而,目前研究界的T2V一代仍然面临两大挑战:1)缺乏精确的、高质量的开源数据集。以前流行的视频数据集,如WebVid

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/神奇cpp/article/detail/956638
推荐阅读
相关标签
  

闽ICP备14008679号