赞
踩
每天给你送来NLP技术干货!
文|白鹡鸰
来自 | 夕小瑶的卖萌屋
自从Diffusion模型兴起之后,AI绘画圈又迎来了一波猪突猛进式的强化,早几年还只是Ins的二次元/迪士尼风格滤镜,让人穿上不同服装当接头霸王。现在,你随便输几句话,模型就能刷刷刷给你吐出一大堆精美的图来,画的比你好,风格多样化,还两分钟就交稿。
虽然用AI搞艺术已经进入了全民应用的时代,但很多人对这个强大的工具的使用方式却让我不由感叹想象力的匮乏。想想吧!我当着妈妈的面打开小蓝鸟搜索这期推送的素材,结果齐刷刷跳出了一大排雪白的胸脯!我妈看我的眼神当场就不对了!!!
那么,今天我们就来看看Diffusion模型还有哪些好玩实用的应用,一起欣赏下吧!
本期内容参考@daniel_eckler。
模型名为MDM, Human Motion Diffusion Model [2],只要输入语言描述,就能让三维小人模型做出对应的动作,生成结果具有多样性,每个小人会有一定的动作差异。从demo可以看出,目前动作已经非常生动流畅了。
dream-textures,基于Stable Diffusion实现的开源项目,可以自动生成纹理,给模型贴图,可以作为Blender插件部署 [3]。
另一项基于Stable Diffusion实现的工作,目前未开源,但它的效果展示引发了我无限的遐想 [5]。如果MineCraft转现实风格的图片效果这么好,《三体》动画的开发是不是可以基于《我的三体》加快进程了?
Diffusion模型和GravitySketch的结合,原本GravitySketch的绘制效果非常简陋,但加上diffusion模型之后,图像生动了不止一点两点 [6]。
还是基于Stable Diffusion的开源项目 [7],能通过VR眼镜“扭曲”你周围的环境并基于一些参考图片进行再生成。老实说总体效果还是有些掉SAN,不过前途无量啊,想想以后在家里,带上VR瞬间变成凡尔赛宫,这不是很爽?
在大部分人还在用Diffusion捏脸、造原创角色、沉迷美色的时候,有些人的格局已经打开了。直接靠着目前为止漫威的动画、电影素材,把《蜘蛛侠·平行宇宙2》的预告片给造出来了。看到这个整活的时候我内心的震撼程度更甚于当年看到Jack Frost和Elsa、林黛玉和伏地魔的拉郎MV [8]。
Diffusion模型的使用姿势目前为止还没有被完全开发,它的潜力很大程度上取决于人类想象力能有多么精彩。所以说,还请大家整活的时候含蓄一点,免得下次我又被逮个现行,百口莫辩跳进黄河洗不清了!
最后是题图里承诺的爆照时间——
没错,网络上,没有人知道小爷是一只电子鸟(图片由HuggingFace-Stable Diffusion生成 [9])。
卖萌屋作者:白鹡鸰
白鹡鸰(jí líng)是一种候鸟,浪形的飞翔轨迹使白鹡鸰在卖萌屋中时隐时现。已在上海交大栖息四年,进入了名为博士的换毛期。目前蹲在了驾驶决策的窝里一动不动,争取早日孵出几篇能对领域有贡献的论文~
知乎ID也是白鹡鸰,欢迎造访。
本文内容由网友自发贡献,转载请注明出处:https://www.wpsshop.cn/w/我家小花儿/article/detail/397523
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。