deep-learning - PyTorch:如何根据每个 GPU 的性能分配训练工作?
问题描述
我遇到了尝试用两个 GPU 训练神经网络的问题。一个是 Nvidia 1070,另一个是 Nvidia 2070。显然,2070 比 1070 快,所以如果我在它们每个中投入相同数量的训练样本,1070 将成为减慢训练过程的瓶颈。
我想要做的是让这两个 GPU 做不同数量的工作。例如,如果我的批量大小为 100,我希望我的 2070 卡处理其中的 80%,我的 1070 卡处理其中的 20%。PyTorch 提供的现有 API 可以做到这一点吗?PyTorch似乎不支持这一点DataParallel
。DistributedDataParallel
解决方案
推荐阅读
- c - 如何释放动态分配的内存,其中每个索引也是动态分配的?
- java - 我的片段状态寻呼机适配器中的空指针异常
- java - 创建名为 'org.springframework.boot.autoconfigure.jdbc.JdbcTemplateAutoConfiguration' 的 bean 时出错:不满足的依赖项
- asynchronous - 根据另一个 Future 的结果创建 Future
- javascript - 当它作为道具传递时,如何将状态从父组件更新到子组件?
- javascript - 无法捕获任务输入文件的快照':react-native-fs:javaPreCompileDebug'property'compileClasspaths'在最新检查期间
- android - NonExistentClass 不能转换为 Annotation
- reactjs - 是否可以通过从其中一个 props 调用函数来获取嵌套的内部 React 组件的名称?
- python - Python Pandas-在一列中检索值,而它们小于第二列的值
- python - 如何计算 Pandas 中滚动窗口的累积乘积?