首页 > 解决方案 > Pytorch 可以将张量移动到 gpu,但 nvidia-smi 显示没有使用 GPU 内存

问题描述

你好~我对这种情况很困惑。

首先,我的 tf 和 pytorch 都可以检测到我的 gpu(使用 torch.cuda,is_available()),但我的模型在几天前在 gpus 上运行得很好,今天只能在 cpus 上运行。似乎 pytorch 和 tf 直接跳过将模型传递给 gpu。

其次,我在 python 交互模式下进行了测试:

import torch
x = torch.randn(10000,1000).cuda()

这条线工作得很好,当我输入

x.device

python 告诉我 x 在 gpu 设备索引 0 上,但同时。在 nvidia-smi 中没有使用 GPU 内存

第三,当我用

watch -n 1 nvidia-smi

我发现我的 GPU 的温度或功率在很长一段时间内都没有变化。

任何帮助将不胜感激!!

标签: tensorflowpytorchgpunvidia

解决方案


推荐阅读