赞
踩
此论文为研究论文,入选 SIGGRAPH 2023(SIGGRAPH是计算机图像界最顶级会议)。
一作:潘新刚 现马克斯・普朗克计算机科学研究所博士后
论文:[2305.10973] Drag Your GAN: Interactive Point-based Manipulation on the Generative Image Manifold (arxiv.org)代码(据说6月开源):https://github.com/XingangPan/DragGAN
效果图:
相比于更易掌控的扩散模型,GAN通过单个向前传递生成图像,因此是更高效的。
为提高更加准确、灵活、通用的交互式图像处理工具,本文提出Drag GAN(高效交互、实时编辑、多次改变图像,不依赖于额外网络),其有两部分组成:
1)一种基于特征的运动监督,它驱动图像中的操纵点向目
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。