tensorflow - Pytorch 可以将张量移动到 gpu,但 nvidia-smi 显示没有使用 GPU 内存
问题描述
你好~我对这种情况很困惑。
首先,我的 tf 和 pytorch 都可以检测到我的 gpu(使用 torch.cuda,is_available()),但我的模型在几天前在 gpus 上运行得很好,今天只能在 cpus 上运行。似乎 pytorch 和 tf 直接跳过将模型传递给 gpu。
其次,我在 python 交互模式下进行了测试:
import torch
x = torch.randn(10000,1000).cuda()
这条线工作得很好,当我输入
x.device
python 告诉我 x 在 gpu 设备索引 0 上,但同时。在 nvidia-smi 中没有使用 GPU 内存
第三,当我用
watch -n 1 nvidia-smi
我发现我的 GPU 的温度或功率在很长一段时间内都没有变化。
任何帮助将不胜感激!!
解决方案
推荐阅读
- ios - WKWebView - 对 iframe 中加载的外部 URL 的离线支持
- r - 在 R 中更改多个 .csv 文件中的同一列
- javascript - 招聘管理系统的类图
- python - 安装所有扩展后,我无法在我的 vs 代码中在 django 中创建单个项目
- javascript - 这个符号在javascript中是什么意思?
- iot - 通过 ThingPark 社区网络服务器接收 LoRaWAN 上行链路消息
- google-cloud-platform - Google Cloud Workflow 错误为“语法错误:未闭合的字符串文字
- python - np.mean(phDF.ram) 引发错误
- bash - 使用 grep 执行 aws ecs 'execute' 命令
- git - 如何创建“报告”来确定旧提交中的代码是否仍然存在于 master 分支中?