赞
踩
项目地址:https://github.com/Zeqiang-Lai/DragGAN
论文地址:https://vcai.mpi-inf.mpg.de/projects/DragGAN/
代码地址:https://github.com/XingangPan/DragGAN
它说6月份发布
简单来说就是可以通过用鼠标扮演手柄的角色,在图片中实现图像点拖拽,进而来实现人动物的五官,形态变换。如下图一样,
实现如上面视频那样符合用户需求的视觉内容通常需要对生成对象的姿态、形状、表情和布局具有灵活和精确的可控性。在现有的方法通过手动注释的训练数据或先前的3D模型来获得生成对抗网络(GANs)的可控性,但这往往缺乏灵活性、精确性和普适性,因此提出了DragGAN模型
DragGAN模型,探索了一种强大但鲜为人知的控制GANs的方法,即以用户交互的方式“拖动”图像中的任何点以精确达到目标点,如图1所示。为了实现这一目标,我们提出了DragGAN,它由两个主要组件组成:
这里的手柄点就是我们的鼠标点,通过鼠标点击需要拖拽的位置,进行向目标位置移动
深度生成模型,如生成对抗网络(GANs),在合成逼真图像方面取得了重大进展。然而,在实际应用中,对合成图像内容的可控性是一个关键需求。为了满足用户的多样化需求,理想的可控图像合成方法应该具备灵活性、精确性和普适性。
先前的方法只能满足其中一些特性,因此我们的目标是在本研究中实现所有这些特性。先前的方法通常通过3D模型或依赖手动注释数据的监督学习来实现对GANs的可控性。然而,这些方法无法推广到新的对象类别,且在编辑过程中缺乏精确控制。最近,文本引导的图像合成引起了关注,但在编辑空间属性方面缺乏精确性和灵活性。
为了实现GANs的灵活、精确和通用的可控性,本研究探索了一种强大但较少被探索的交互式基于点的操作方法。我们允许用户在图像上选择手柄点和目标点,并旨在通过这些点使手柄点达到相应的目标点。这种基于点的操作方法允许用户灵活地控制空间属性,且不受对象类别的限制。
在这里,我们先简要的介绍一下图像生成模型中必备的基础知识 - 图像潜在空间向量
潜在空间向量:在StyleGAN中,潜在空间向量是一种表示图像特征的潜在变量。这些向量被用作输入,通过生成器网络来生成逼真的图像。潜在空间向量在StyleGAN中扮演着关键的角色,它们决定了生成的图像的外观、风格和特征。
潜在空间向量的每个元素都代表了生成图像的某种特征。通过修改潜在向量的不同元素,可以控制生成图像的各个方面,如颜色、纹理、形状等。这使得潜在空间向量成为一种强大的工具,可以实现对生成图像的可控编辑。
也可以说潜在空间就是图像在计算机视角下的特征表示
在DragGAN算法流程概览如上图所示。
算法流程用一句话来说:
先将原始的图像生成为潜在空间 w w w, I ∈ R 3 × H × W I \in R^{3 \times H \times W} I∈R3×H×W,并通过Motion Supervision实现图像的拖拽交互转换,映射为新的潜在空间 w ′ w' w′,并由潜在空间转换为生成后的图像
图像潜在空间的转换,其实就是每一个像素点的移动,转换。
在这里我们可以假设原始图像的潜在空间像素点为:
p
i
=
(
x
p
,
i
,
y
p
,
i
∣
i
=
1
,
2
,
.
.
,
n
)
{p_i = (x_{p,i},y_{p,i}|i=1,2,..,n)}
pi=(xp,i,yp,i∣i=1,2,..,n)
对应到交互转换后的潜在空间像素点为:
t
i
=
(
x
t
,
i
,
y
t
,
i
∣
i
=
1
,
2
,
.
.
,
n
)
{t_i = (x_{t,i},y_{t,i}|i=1,2,..,n)}
ti=(xt,i,yt,i∣i=1,2,..,n)
(即
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。