DragGAN的官方版还没有发布,但是已经有非官方版的实现了,我们看看如何使用。DragGAN不仅让GAN重新回到竞争轨道上,而且为GAN图像处理开辟了新的可能性。正式版本将于本月发布。但是现在已经可以在一个非官方的演示中试用这个新工具了
DragGAN
生成对抗网络(GAN)是一种机器学习系统,由生成器和鉴别器两部分组成。
这两个部分是在竞争场景中训练的,其中生成器创建“假”数据(例如试图模仿图像),并试图欺骗鉴别器将其分类为“真实”。
另一方面,鉴别器在训练过程中学习区分真实数据和虚假数据。这种来回的“竞争”随着时间的推移提高了生成器输出的质量,这使得gan能够产生令人难以置信的真实合成数据。
DragGAN通过允许gan生成的图像的任何点被“拖动”到目标点,从而改变图像,为控制gan开辟了新的可能性。也就是说我们可以通过对姿势、形状、表情和布局的明确控制来操纵图像!🤯
论文还介绍了一个称为“GAN inversion”的过程,可以将真实图像转换为GAN可以理解的格式,并通过DragGAN进行转换。
Google Colab
Google Colab可以在浏览器窗口中运行DragGAN。只需要在在Notebook设置中选择GPU并运行安装代码,然后运行演示代码块。
下图就是通过设置原点和目标点,点击“Drag it”(通过“Setup Handle Points”菜单),选
择一个模型和图像来测试DragGAN。
代码在这里(有中文的部署文档哦):
https://avoid.overfit.cn/post/27e2fa4c72854258a2ed876ef43c308f
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。