你也能用英伟达GAN造脸了:官方实现有了,高清数据集也开源了
2019-02-07 06:59:03AI云资讯1492

你大概还没忘记,英伟达去年年底推出的GAN,它合成的人脸甚至骗得过肉眼。
如今,它终于有了自己的名字,叫StyleGAN。顾名思义,GAN的生成器,是借用风格迁移的思路重新发明的。
更重要的是,你现在也能自己养一只这样的GAN了:
官方实现的代码开源了,提供了许多预训练好的模型,自然也支持自己训练模型。

另外,Flicker人像照片的高清数据集 (FFHQ) 也开源了,包含70,000张高清人脸。
官方实现
首先,送上来自英伟达的友情提示:
这个实现可以用Linux跑,也可以用Windows跑,但墙裂推荐大家用Linux跑,为性能和兼容性着想。
除此之外,必需品还有Python 3.6,和TensorFlow 1.10以上 (支持GPU) 。
预训练模型
这里,用pretrained_example.py举个简易的栗子。执行的时候,脚本会从Google Drive下载一个预训练的StyleGAN生成器,然后用它来生成图像:
预训练的生成器有三种食用方法:
一是Gs.run()快速模式,这里的输入和输出都是numpy阵列:
二是用Gs.get_output_for()把生成器整合到一个更大的TensorFlow表达式里面:
三是查找Gs.components.mapping和Gs.components.synthesis,访问生成器的各个子网络。与Gs相似,这鞋子网络也表示为dnnlib.tflib.Network的独立示例。
自己训练模型
如果不满足于预训练的模型,想自己训练模型,就要先:
准备好数据集
把数据集储存为多重分辨率的TFRecords,训练和评估脚本都是在这上面跑:
数据集表示为一个目录,里面的每张图像都有多种不同的分辨率,用于高效的streaming。每个分辨率都有一个自己的*.tfrecords文件。数据有标注的话,也是用一个分开的文件来储存的。

训练吧
官方提供的训练过程分四步:
1.编辑train.py,通过取消注释或者修改某些行,来指定数据集和训练配置;
2.用train.py来运行训练脚本;
3.结果会写在一个新目录里,叫results/-;
4.训练直至完成,几天时间可能是要的。
(最好有一台英伟达高端GPU,至少11GB的DRAM,再开始训练。有很多台的话,当然更好。)
至于训练好的模型该怎样评估,大家可以去项目页自行观察。
高清无码数据集
和官方代码实现一起发布的,就是Flickr高清人脸数据集了。
那些几可乱真的人脸,就是StyleGAN吃了这个数据集,才生成的。

数据集里包含7万张1024 x 1024高清人像。英伟达说,这些照片在年龄、种族、以及图片背景上,都有很强的多样性。
并且,眼镜、墨镜、帽子这些元素,也是应有尽有。
团队说,图像是直接从Flickr上面扒下来,自动对齐自动裁剪而成。并且,数据集里收录的图片都有使用许可,无须担心。
还不去试试
有大胆想法的同学们,可以去试试了。毕竟,不是只有生成人脸这一种功能,猫片,汽车,房间……

你还想生成一些什么?
相关文章
- 三星HBM4高带宽内存正式进入英伟达Vera Rubin人工智能芯片平台
- 英伟达已瞄准台积电1.6nm产能,特斯拉/微美全息加速扩展AI芯片集群生态!
- 黄仁勋为何见她?英伟达中国行背后的工业AI落地逻辑
- 英伟达与OpenAI的千亿美元超级合作陷入停滞
- AMD与高通计划追随英伟达,下一代AI产品也将采用SOCAMM内存
- AI浪潮汹涌芯片突围战打响!英伟达/特斯拉/微美全息竞速引领基建突破新高度!
- 三星或将成为英伟达Vera Rubin平台首批HBM4内存供应商
- 英伟达CEO黄仁勋与AMD苏姿丰谈及当初选择台积电代工的决策如今收获丰硕
- 三星凭借与英伟达和苹果等巨头的长期合作,已在代工领域对英特尔形成压倒性优势
- 马斯克全力出击芯片制造,AI5芯片性价比远超英伟达Blackwell
- 国产存储突破:绿算GP7000率先适配英伟达G3层KV Cache架构,AI推理效率提升17倍
- 英伟达开源加速产业进程,均胜电子等相关Tier1迎来价值重估
- 英伟达AMD亮相CES 2026加速硬件进化 万兴科技引领应用层迭代
- 英伟达新一代Vera Rubin AI系统预计未来几年将消耗几百万TB的NAND闪存固态硬盘
- 英伟达CES预言自动驾驶未来,文远知行融合双技术路线领跑行业
- 苹果或将与英伟达在台积电争夺相同的3D封装产能资源









