首页 > 解决方案 > Pytorch 如何在多个进程之间共享内存?

问题描述

据此 “进程具有单独的内存”。但是根据此链接,Pytorch 可以以某种方式在多个进程之间共享内存:“一旦张量/存储移动到 shared_memory(请参阅 share_memory_()),就可以将其发送到其他进程而无需制作任何副本。” 为什么可以在不同的内存之间共享内存?听起来是不是一个悖论?

标签: pythonmultiprocessingpytorch

解决方案


推荐阅读