首页 > 解决方案 > TensorFlow:并行运行多个版本的调用 TF 的 Python 脚本

问题描述

我正在改进一个基于 Keras + TensorFlow 实现 DQN 算法的 Python 脚本。这是一个非常经验和试错的过程,所以我想在后台运行脚本,同时调整代码中的一些超参数并并行运行第二个版本。如果我现在尝试这样做,我会收到一个错误,因为正在使用 GPU。我正在通过 SSH 使用带有 Intel Xeon 和单个 NVIDIA GeForce GTX 780 GPU 的服务器。那可能吗?如何?

标签: pythontensorflowdeep-learning

解决方案


默认情况下,TensorFlow 会在启动时预先分配所有可用的 GPU 内存,以确保我们不会浪费时间等待单独的内存分配。如果您希望运行 tf 的并发实例,您可以通过允许 GPU 堆增长来禁用它:

config = tf.ConfigProto()
config.gpu_options.allow_growth=True
sess = tf.Session(config=config)

但是请注意,如果您的模型可以使用运行一个版本的 GPU,您不希望同时运行两个版本,因为它会更慢。


推荐阅读