赞
踩
这位大佬用通俗易懂的方式,逐步拆解Sora工作原理,浅显易懂,推荐看看! 本文为转载文章,原文请看链接。
Sora结合使用了扩散模型(从噪声开始,逐渐精细化到所需视频)和Transformer架构(处理连续视频帧)。
Sora的独特之处在于其处理视频生成的方法。它不是直接将文本转换为视频帧,而是依赖于所谓的“空间时间补丁”。 通过空间时间补丁工作,不直接将文本转换为视频帧,而是处理空间(发生的事情)和时间(何时发生)的快照。可以看作是微观视频拼图的每一小块。
通过这种方式,Sora将视频视为一个包含空间和时间维度的巨大立方体,然后再将其切割成更小的立方体,每个立方体代表空间和时间的片段。
剖析描述并确定了核心要素:
为了能够将这些补丁有意义地组合成一个连贯的视频,Sora利用了其内部的知识图谱。这些知识图谱包含了关于物理世界、对象如何相互作用,甚至包括不同艺术风格的信息。 借助这些知识,Sora能够理解例如:一朵花如何逐渐开放(逐瓣成形)、如何与阳光互动(随时间改变光照)以及如何保持停动画风格(逐帧过渡)等复杂过程。
在视频生成的下一阶段,扩散模型开始对每个嘈杂、抽象的补丁进行处理,逐渐精细化,直至最终呈现出清晰的图像。 Transformer架构负责分析时间跨度上补丁之间的关系,确保视频中的动作(如花朵的生长、阳光的移动)流畅自然,停动画风格在整个视频序列中保持一致。
尽管Sora能够执行各种与视频相关的任务,并展现出惊人的视频生成能力,但仍有一些挑战需要克服。例如,它在模拟一些基础物理互动的精确性方面还有待提高,如下图有时会产生人物不自然的效果,以及人物的手势看起来不够真实的情况。尽管如此,Sora在视频生成技术方面展示了巨大的潜力,为未来的人工智能应用开辟了新的可能性。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。