azure-machine-learning-service - 是否可以将 DistributedDataParallel 与 PyTorch Estimator 一起使用
问题描述
我们知道 Horovod 是受支持的。是否有使用 DistributedDataParallel 和 Pytorch 估计器的示例脚本?
解决方案
除了带有 Horovod 的 MPI 之外,您还应该能够将 nccl 或 gloo 指定为分布式数据并行后端。请参阅PyTorch Estimator的Distributed_training参数。
推荐阅读
- c - detect string at the end of pattern
- python - 多个 scikit 学习管道的奇怪行为
- hibernate - @PrePersist 方法不起作用或未被调用
- python-3.x - Python用OR分配变量,一行中的多个语句?
- python - 如何将 GUI PyQt5 小部件中的参数传递给我通过按钮工作的 python 代码
- kubernetes-ingress - 没有 pod 的 WorkerNode 上的 502 Bad Gateway
- google-cast - 为什么调试 chromecast 时 Chrome DevTools 调试器屏幕显示为绿色?
- asp.net-mvc - 如何将文件从控制台应用程序上传到 MVC 网站?
- python-2.7 - Python,为什么硒脚本运行这么慢
- python - 嵌套 for 和 if 循环应用于数据帧的每一行