当前位置:   article > 正文

谢赛宁紧急辟谣:Sora跟我一点关系没有,他们996搞一年了

谢赛宁紧急辟谣:Sora跟我一点关系没有,他们996搞一年了
梦晨 衡宇 发自 凹非寺
量子位 | 公众号 QbitAI

误会了误会了,被传为“Sora作者之一”的上交大校友谢赛宁,本人紧急辟谣

fe78d1c8f2916afa91416c67c14417dc.png

他的声明发在其朋友圈,以及“交大校友荟”账号交大org上,主要说了几点:

  • Sora完全是OpenAI的工作,和谢赛宁本人一点关系没有。

  • 但他后面将在纽约大学开展相关研究

  • 要开发Sora这样的成果,人才第一, 数据第二,算力第三。

  • 《黑镜》等科幻作品里的部分故事可能很快成为现实,需要准备好对应的监督体系。

80e2b246474540b980e169e357ab3bfd.jpeg

传播不实信息的原文章也在大家帮忙举报后被平台下架了。

258dea80ee1c915c7c7001bde3b16ff8.jpeg

这番误会终于算是告一段落。

不过谢赛宁透露的信息中还有一些细节值得关注,相熟的Sora开发领队Bill Peebles说团队基本不睡觉高强度工作了近一年

而Bill Peebles在2023年3月入职OpenAI,距今刚好不到一年。

也从侧面否定了之前传闻中的“Sora早就开发完成,只是一直没发”。

dc2120257847f4d164645cc17ff546f9.png

至于为什么会有这个离谱的误会,还要从谢赛宁与Peebles合作的一篇论文说起。

为什么会有这个误会?

Sora技术报告引用的一项研究成果DiT模型,正是谢赛宁与Peebles合著。

那时Peebles博士在读期间到Meta实习,谢赛宁也还没完全离开FAIR。

DiT首次将Transformer与扩散模型结合到了一起,相关论文被ICCV 2023录用为Oral论文。

9f11516ae62f22dfc3f0cfe109e7b143.png

虽然Sora模型具体架构细节没有公布,但谢赛宁此前从Sora技术报告中分析出出,很可能就是建立在DiT的基础之上。

3c2f099d33e68b994ab13fe92605a5d5.png

除此之外,Sora还参考借鉴了许多其他学术界成果。

如把训练数据编码成Patch的方法,引用了谷歌DeepMind的Patch n’ Pack等。

2092d965285181e74fb9830af15a7c66.png

博采众长,同时坚定在Scaling Law指引下力大砖飞,才造了令人惊叹的Sora成果。

大神确实也是大神

排除掉这个误会,谢赛宁确实也是AI研究领域的一位大神,目前在纽约大学任助理教授

f1ddf245b7679918d12c1d18fe5f2883.png

他本科毕业于上海交通大学ACM班,18年博士毕业于加州大学圣迭戈分校。

毕业后谢赛宁加入Facebook AI Research(FAIR),曾与何恺明合作提出ResNeXt。

目前他在谷歌学术总被引用数达到4万5,h-index也高达31。

3e1fec8ddb688c7edb4d650275b0dc65.png

就在Sora发布不久前,他还领导纽约大学团队对DiT模型来了个大升级,新模型称为SiT。

SiT与DiT拥有相同的骨干网络,但质量、速度灵活性都更好。

d838326c6b0f6ce0c78f6fb7e766fb5c.png
59e0656ff69f07690e394190ea57467f.png

谢赛宁认为,跟进Sora相关研究是学术界可以为这个时代肩负的重责之一。

让我们一起期待他的新成果吧。

参考链接:
[1]https://mp.weixin.qq.com/s/4ox9ITnd8TE2_Sior3eaEA

—  —

点这里

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/花生_TL007/article/detail/132882
推荐阅读
相关标签