首页 > 解决方案 > 如何方便地控制 Nvidia StyleGAN 中的功能?

问题描述

在 Nvidia 的 StyleGAN 视频演示中,他们展示了各种 UI 滑块(很可能只是出于演示目的,而不是因为在开发 StyleGAN 时它们实际上具有完全相同的控件)来控制功能的混合:

https://www.youtube.com/watch?v=kSLJriaOumA

但是,这里的 GitHub 存储库https://github.com/NVlabs/stylegan似乎缺少任何控制功能的简单方法。

是否有任何 Jupyter(或 Kaggle)笔记本具有 UI 控件,用于通过滑块和上传的源照片进行功能控制,或者一些简单的解决方案如何自己添加控件?我如何真正使用 StyleGAN 项目来做更多的事情,而不仅仅是生成随机图像?

标签: machine-learningimage-processingjupyter-notebooknvidiagenerative-adversarial-network

解决方案


以防其他人寻找相同的东西。

最后,我设法找到了与我正在寻找的东西非常接近的东西——一个允许通过 UI 控制 StyleGAN 面部特征的项目:

https://github.com/SummitKwan/transparent_latent_gan

它使用的是CelebA数据集,所以品种不够大,特征经常纠缠太多。我希望为更大的 Flickr-Faces-HQ 数据集找到类似于此解决方案的解决方案(或在 Nvlabs 的演示图像混合中),但似乎还没有。

我想,我必须自己学习机器学习和 Python,以达到足以调整 Faces-HQ 数据集上的 transparent_latent_gan 示例的理解水平。

奇怪的是(似乎)还没有人创建过 Nvlabs 视频演示中展示的如此方便的 UI。


推荐阅读