当前位置:   article > 正文

Drag GAN 论文浅读_draggan

draggan

此论文为研究论文,入选 SIGGRAPH 2023(SIGGRAPH是计算机图像界最顶级会议)。

一作:潘新刚  现马克斯・普朗克计算机科学研究所博士后

论文:[2305.10973] Drag Your GAN: Interactive Point-based Manipulation on the Generative Image Manifold (arxiv.org)代码(据说6月开源):https://github.com/XingangPan/DragGAN

 效果图:

相比于更易掌控的扩散模型,GAN通过单个向前传递生成图像,因此是更高效的。

 为提高更加准确、灵活、通用的交互式图像处理工具,本文提出Drag GAN(高效交互、实时编辑、多次改变图像,不依赖于额外网络),其有两部分组成:

1)一种基于特征的运动监督,它驱动图像中的操纵点向目

声明:本文内容由网友自发贡献,转载请注明出处:【wpsshop】
推荐阅读
相关标签
  

闽ICP备14008679号