machine-learning - 如何方便地控制 Nvidia StyleGAN 中的功能?
问题描述
在 Nvidia 的 StyleGAN 视频演示中,他们展示了各种 UI 滑块(很可能只是出于演示目的,而不是因为在开发 StyleGAN 时它们实际上具有完全相同的控件)来控制功能的混合:
https://www.youtube.com/watch?v=kSLJriaOumA
但是,这里的 GitHub 存储库https://github.com/NVlabs/stylegan似乎缺少任何控制功能的简单方法。
是否有任何 Jupyter(或 Kaggle)笔记本具有 UI 控件,用于通过滑块和上传的源照片进行功能控制,或者一些简单的解决方案如何自己添加控件?我如何真正使用 StyleGAN 项目来做更多的事情,而不仅仅是生成随机图像?
解决方案
以防其他人寻找相同的东西。
最后,我设法找到了与我正在寻找的东西非常接近的东西——一个允许通过 UI 控制 StyleGAN 面部特征的项目:
https://github.com/SummitKwan/transparent_latent_gan
它使用的是CelebA数据集,所以品种不够大,特征经常纠缠太多。我希望为更大的 Flickr-Faces-HQ 数据集找到类似于此解决方案的解决方案(或在 Nvlabs 的演示图像混合中),但似乎还没有。
我想,我必须自己学习机器学习和 Python,以达到足以调整 Faces-HQ 数据集上的 transparent_latent_gan 示例的理解水平。
奇怪的是(似乎)还没有人创建过 Nvlabs 视频演示中展示的如此方便的 UI。
推荐阅读
- python - 使用 keras 进行 RNN 的三元组网络
- flutter - Flutter / Dart:StatefulWidget - 访问Widget内部的类变量
- javascript - 折叠的导航栏不起作用反应和引导 5
- sql - 如何找到谁更改了 SSAS 数据库
- angular - 在角度 9 中每 x 分钟进行一次 http 请求调用
- vba - 检查每一行的 Word 文档样式
- c# - 是否可以为 UIElement.LayoutUpdated 实现 WeakEventManager?
- r - 基于R中多个其他列的值进行过滤
- swift - Swift 枚举可以将函数/闭包作为原始值吗?
- java - 从java中的Flowable获取列表的最简单方法是什么?