首页 > 解决方案 > 分配 gpu 部分急切执行

问题描述

基本上,我在渴望模式下运行强化学习模型,我需要限制每个进程将从 gpu 中要求的内存量。在图形 api 中,这可以通过修改 tf.ConfigProto() 对象并与所述配置对象创建会话来实现。

但是,在 Eager api 中,没有会话。我的疑问是,在这种情况下如何管理 gpu 内存?

标签: pythontensorflowkerasdeep-learning

解决方案


tf.enable_eager_execution()接受一个config参数,其值将是相同的ConfigProto消息。

因此,您应该能够使用它为每个进程设置相同的选项。

希望有帮助。


推荐阅读