python - TensorFlow:并行运行多个版本的调用 TF 的 Python 脚本
问题描述
我正在改进一个基于 Keras + TensorFlow 实现 DQN 算法的 Python 脚本。这是一个非常经验和试错的过程,所以我想在后台运行脚本,同时调整代码中的一些超参数并并行运行第二个版本。如果我现在尝试这样做,我会收到一个错误,因为正在使用 GPU。我正在通过 SSH 使用带有 Intel Xeon 和单个 NVIDIA GeForce GTX 780 GPU 的服务器。那可能吗?如何?
解决方案
默认情况下,TensorFlow 会在启动时预先分配所有可用的 GPU 内存,以确保我们不会浪费时间等待单独的内存分配。如果您希望运行 tf 的并发实例,您可以通过允许 GPU 堆增长来禁用它:
config = tf.ConfigProto()
config.gpu_options.allow_growth=True
sess = tf.Session(config=config)
但是请注意,如果您的模型可以使用运行一个版本的 GPU,您不希望同时运行两个版本,因为它会更慢。
推荐阅读
- java - Intellij Idea 评论错误
- php - DATE_ADD(NOW(), INTERVAL 5 MINUTE 插入
- ruby-on-rails - Ruby 中的领域特定语言和翻译
- r - R:函数内部 ggplot 的无法解释的行为
- reactjs - 在 react-chartjs-2 中将背景颜色更改为渐变
- c# - 如果项目存在于 C#/WPF 的 ObservableCollection 中,则查找数字的索引
- javascript - 如何使用 ajax 将 javascript 对象属性获取到 php 变量?
- php - 未升级的资产文件
- javascript - 单击输入时打开日期选择器
- vim - 用 vim 打开文件但也保持终端打开?