docker - GPU 上的深度学习
问题描述
DGX-1 的功率相当大。但是,在使用它时,我只使用了八张卡中的一张的 34%。我可能会错过一些要点和调整吗?我知道我不能并行化所有东西,这是有上限的。但老实说,我期待更好的表现。
我正在运行一个预装了 tensorflow 的 nvidia-docker。运行的脚本来自 dennybritz,它使用得很好。我运行泊坞窗一张一张卡。由于它没有使用整张卡,我没有给他第二张。这会有什么好处吗?当然,我可以运行多个实例并选择最好的一个。但是当有 170TFLOPS 可访问时,我宁愿早点得到结果。
解决方案
推荐阅读
- python - 在 Maya 中,使用 Python 或 Mel,如何找到没有 UV 壳的对象
- security - WSO2:我的密钥库已添加到碳中,但在启动时未加载
- python - Python __doc__ documentation on instances
- opencv - 像换脸一样的 JibJab
- c# - FluentAssertions 等价于 xUnit Assert.Collection
- python - 将数字字段添加到 Django 模型
- json - 在嵌套的对象数组中查询 mongodb
- python - 打印一定数量的项目后需要停止打印 Counter()
- c# - 具有 List 类型的两个列表所需的具有方法语法的 Linq 查询
- c# - ASP.NEТ MVC 5 复选框/单选按钮绑定在行动