互联网资讯

当前位置:游戏娱乐 > 互联网资讯 > 【互联网】不用再找换脸教程了,飞桨PaddleGAN给你一键式体验

【互联网】不用再找换脸教程了,飞桨PaddleGAN给你一键式体验

来源:http://www.friedwires.com 作者:游戏娱乐 时间:2019-10-31 01:26

互联网 1

互联网 2

StarGAN

原本是悠然地移动。

互联网 3

允中 发自 凹非寺

7、使用测试集生成图像

CGAN

另外,时间、空间信息的搭配食用,也能让AI更好地学到视频的风格特征

现在,TensorFlow开始手把手教你,在TensorFlow 2.0中CycleGAN实现大法。

  1. 一键式的训练和测试生成网络

云,也变得急切了

互联网 4

图:StarGAN的生成网络结构左]和判别网络结构右]

互联网 5

量子位 出品| 公众号 QbitAI

CycleGAN

Recycle之道,时间知道

这个教程中使用的模型体系结构与Pix2Pix中很类似,但也有一些差异,比如Cyclegan使用的是实例规范化而不是批量规范化,比如Cyclegan论文使用的是修改后的resnet生成器等。

下面送上真·干货!

似乎只有和CycleGAN比一场,才知道时间信息好不好用。

我们训练两个生成器和两个鉴别器。生成器G架构图像X转换为图像Y,生成器F将图像Y转换为图像X。

图:AttGAN网络流程图

翻来覆去的,比CycleGAN的历程还要艰辛。好像终于感受到,Recycle-GAN这个名字是有道理的。

互联网 6

互联网 7

大家可能已经习惯这样的操作了。

互联网 8

生成网络的损失函数是由WGAN的损失函数,重构损失和分类损失组成,判别网络的损失函数由预测损失,分类损失和梯度惩罚损失组成。

互联网 9

8、进阶学习方向

模型库中提供了download.py数据下载脚本,该脚本支持下载MNIST数据集(CGAN和DCGAN所需要的数据集)以及CycleGAN和Pix2Pix所需要的数据集,使用以下命令下载数据:python download.py —dataset=mnist 通过指定dataset参数来下载相应的数据集。

互联网 10

这个官方教程贴几天内收获了满满人气,获得了Google AI工程师、哥伦比亚大学数据科学研究所Josh Gordon的推荐,推特上已近600赞。

福布斯报道说,它在Google Play的下载量已经超过了1亿。

不过在那之前,我们还是有许多资源可以欣赏。

5、检查点

执行以下命令得到CyleGAN的预测结果:

团队在项目主页里,提供了丰富的生成效果:

互联网 11

一键式启动

那么,怎样的迁移才可走出这个框框,让这个星球上的万物,都有机会领取视频改造的恩泽?

2、输入pipeline

Pix2Pix

可是,日落变日出这样的操作,直接倒放不好么?

在CycleGAN中,因为没有用于训练的成对数据,因此无法保证输入X和目标Y在训练期间是否有意义。因此,为了强制学习正确的映射,CycleGAN中提出了“循环一致性损失”(cycle consistency loss)。

以下效果均采用百度与哈工大联合开发的STGAN模型在飞桨开源的实现

RecycleGAN用奥巴马生成的川川,除了嘴皮子,脸的角度也在跟着变化。而中间的CycleGAN,只有嘴的动作比较明显。

循环一致性意味着结果接近原始输入。

图:CycleGAN生成网络流程图

重要的是,视频里的时间信息唾手可得,无需寻觅。

注意:为了使本教程的训练时间合理,本示例模型迭代次数较少(40次,论文中为200次),预测效果可能不如论文准确。

图:STGAN的网络结构

互联网 12

详细内容

提出了将基于属性标签替换为基于属性更改的训练机制。

责任编辑:

4、损失函数

互联网 13

第二局,你见过蒲公英开花的样子么:

例如将一个句子和英语翻译成法语,再将其从法语翻译成英语后,结果与原始英文句子相同。

由百度和哈工大联合研发,在原有的ATTGAN基础上,引入GRU结构,更好的选择变化的属性,可用于人脸特定属性转换。

然后,看一下Recycle-GAN,是怎样在两段视频的图像之间,建立映射的。

初始化所有生成器和鉴别器的的优化:

苹果用户也同样热情,App Annie数据显示,目前在121个国家的iOS商店排名第一。

对抗损失(Adversarial Loss) ,朱俊彦团队的循环损失(Cycle Loss) ,反复损失(Recurrent Loss) ,以及CMU团队自己造的“再”循环损失(Recycle Loss) 都用上,才是强大的损失函数

互联网 14

生成网络提供两种可选的网络结构:Unet网络结构和普通的encoder-decoder网络结构。网络利用损失函数学习从输入图像到输出图像的映射,生成网络损失函数由GAN的损失函数和L1损失函数组成,判别网络损失函数由GAN的损失函数组成。生成器的网络结构如下图所示。

互联网 15

在循环一致性损失中,图像X通过生成器传递C产生的图像Y^,生成的图像Y^通过生成器传递F产生的图像X^,然后计算平均绝对误差X和X^。

利用分类损失和重构损失来保证改变特定的属性,可用于人脸特定属性转换。

这位选手,入选了ECCV 2018

铜灵 发自 凹非寺

生成网络中编码部分的网络结构都是采用convolution-norm-ReLU作为基础结构,解码部分的网络结构由transpose convolution-norm-ReLU组成,判别网络基本是由convolution-norm-leaky_ReLU作为基础结构,详细的网络结构可以查看network/CycleGAN_network.py文件。

代码也快来了

GitHub地址:

可以利用非成对的图片进行图像翻译,即输入为两种不同风格的不同图片,自动进行风格转换。

互联网 16

互联网 17

互联网 18

看了黎明之前的视频,就跟着变了日出:

作者系网易新闻·网易号“各有态度”签约作者

互联网 19

本文由游戏娱乐发布于互联网资讯,转载请注明出处:【互联网】不用再找换脸教程了,飞桨PaddleGAN给你一键式体验

关键词: