首页 > 解决方案 > 如何直接在 gpu 中跨不同深度学习框架转换数据(张量)而不复制到 cpu?

问题描述

比如我在pytorch中有一个cuda张量,如何在gpu中直接转换成mxnet/tensorflow而不复制到cpu?经常在 cpu 和 gpu 之间复制数据是非常耗时的。

标签: tensorflowpytorchtensormxnet

解决方案


最快的方法是为此使用CUDA API

只有 CPU 支持通过 PyTorch 共享张量。

如果你尝试做一些 Python 展览,你会因为 GIL 而变慢。


推荐阅读