tensorflow - CUDA编程:占用是实现不同进程间GPU切片的方式吗?
问题描述
有多种方法可以实现 GPU 共享。我遇到了占用。我可以使用它在共享 GPU 的进程(例如 tensorflow)中对 GPU 进行切片吗?这里的 slice 意味着 GPU 资源始终专用于该进程。使用占用率,我将了解 GPU 和 SM 的详细信息,并在此基础上启动内核,说明为这些 GPU 资源创建块。
我正在使用安装了 cuda 9 工具包的 NVIDIA Corporation GK210GL [Tesla K80]
请建议。谢谢!
解决方案
推荐阅读
- eclipse - 可以在 Windows 和 Linux 中使用二进制包吗?
- reactjs - 如何在未定义 slug 上显示未找到页面?/ 反应路由器 DOM
- java - 助手:无法下载marven库
- json - 我的 JSON 结构是否会导致下载量过大?
- javascript - 无法从 Next.js 中的 getStaticProps 传递数组
- java - EMR 集群在步骤状态“正在运行/待定”中挂起
- android - 改造上传将表单数据存储在上传文件中,破坏它
- javascript - 单击标题时停止自动隐藏的侧菜单
- sql-server - 在 Docker Linux 容器中备份 SQL Server 2019 失败
- java - 解析包含 Instant Date 类型的 Json 输入时出错