pytorch - Pytorch 中的 Gloo 用于 GPU 张量集体通信
问题描述
对于 Pytorch 中的 Gloo 分布式,如本文档https://pytorch.org/docs/stable/distributed.html所示,以下代码是否会获得使用 CUDA-aware MPI 的性能优势?(例如,绕过 CPU 通过 PCIe 进行 GPU 到 GPU 传输)
group = dist.new_group([0, 1], backend="gloo")
dist.all_reduce(gpu_tensor_a, op=dist.ReduceOp.SUM, group=group)
解决方案
推荐阅读
- r - 用字符串减去列
- ios - Swift - 打字时TextView高度和宽度发生变化
- ios - 视图转到表格视图,表格不起作用
- c++ - 在 C++ 中使用 Qt 在 Linux 上连接到 Oracle DB
- ios - UIView.animate 已更改,我需要帮助来为我的应用复制动画
- php - 在 Laravel 中发布多个具有相同名称的字段
- python - 如何使用硒打开特定链接?
- api - 在 ModelsBuilder API 模式下在 Umbraco 7.6 中生成模型时出错
- ruby-on-rails - 是否可以通过 API 为有房地产计划的账户启用 DocuSign 的删除线功能?
- swift - 如何从转换为 Plist 文件的 CSV 文件中提取特定列值?