首页 > 解决方案 > 指定在哪个 GPU 上运行 Tensorboard

问题描述

我正在使用由多个用户共享的 Linux 机器。这台机器有四种不同的 GPU 设备。我想在其中一个开放的 GPU 上运行我的 Tensorflow 网络和我的 Tensorboard 监控进程。目前,主 GPU (GPU-0) 已满载一些其他用户的进程:

+-----------------------------------------------------------------------------+ | NVIDIA-SMI 390.46 Driver Version: 390.46 | |-------------------------------+----------------------+----------------------+ | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | |===============================+======================+======================| | 0 GeForce GTX 108... Off | 00000000:05:00.0 Off | N/A | | 50% 84C P2 216W / 250W | 11124MiB / 11178MiB | 97% Default | +-------------------------------+----------------------+----------------------+ | 1 GeForce GTX 108... Off | 00000000:06:00.0 Off | N/A | | 23% 33C P8 17W / 250W | 10845MiB / 11178MiB | 0% Default | +-------------------------------+----------------------+----------------------+ | 2 GeForce GTX 108... Off | 00000000:09:00.0 Off | N/A | | 23% 32C P8 16W / 250W | 10845MiB / 11178MiB | 0% Default | +-------------------------------+----------------------+----------------------+ | 3 GeForce GTX 108... Off | 00000000:0A:00.0 Off | N/A | | 23% 27C P8 16W / 250W | 10845MiB / 11178MiB | 0% Default | +-------------------------------+----------------------+----------------------+ +-----------------------------------------------------------------------------+ | Processes: GPU Memory | | GPU PID Type Process name Usage | |=============================================================================| +-----------------------------------------------------------------------------+

当我尝试使用以下命令运行 tensorboard 时: tensorboard --logdir=path_to_directory出现 CUDA_ERROR_OUT_OF_MEMORY 错误。这显然是由于 tensorboard 试图在满载的 GPU 上运行。有没有办法在其中一个开放的 GPU 上运行张量板?

标签: tensorflowtensorboard

解决方案


推荐阅读