首页 > 解决方案 > 如何在张量流(keras)中使用 GPU 和 CPU?

问题描述

我正在使用 tf.keras 运行一个内存相当密集(估计约为 6GB)的 GAN 模型,我的 GPU 似乎无法处理(预测失败,仅报告 nans)。有没有办法用系统内存支持我的 4GB GPU 内存?还是一种在 GPU 和 CPU 之间共享计算工作的方法?

我的规格:

有关更多信息,请参阅我几天前提出的这个问题的非常详细的版本(没有回应,因此这个问题):TF 模型在切换到 GPU 后不再预测

标签: python-3.xtensorflowmemoryneural-networktf.keras

解决方案


解决方案:

在张量流中,使用 a 训练模型与gpu使用 python 时的任何操作系统相同keras。训练模型时,您将训练函数包装在一个with语句中,指定gpu numbera 作为参数tf.device method

这是代码的模板:

import tensorflow as tf

with tf.device('/device:GPU:<The gpu number>'):
    history = model.fit(<your traning info>)

否则,如果您缺乏 RAM CPU GPU 等资源,请尝试使用google colab 一个免费环境来编程张量流,并免费访问许多 GPU 的 CPU 和 RAM


推荐阅读