python - 当我更改优化器时,Tensorflow 内存不足
问题描述
当我在训练自己的 tensorflow 代码时,出现了以下问题。我第一次使用tf.train.Gradientdescentoptimizer()
优化我的神经网络时,一切正常,但是在我将优化器更改为其他优化器后tf.train.adamoptimizer()
,tensorflow 显示:
在分配张量 withshapt[50176, 4096] 时出现 OOM。
所以我试图减少我的batch_size
,但即使我改变batch_size
了batch_size = 1
,它仍然无法修复。
当我运行这个程序时,我没有运行任何其他程序。
我的电脑内存是8GB,我的gpu内存是6GB。
tensorflow的版本是tensorflow-gpu1.4,操作系统是Ubuntu 16.04 LTS。
因此,如果有人遇到过同样的问题,或者有人对此问题有一些建议。非常感谢你。
我不是以英语为母语的人,如果我的描述有任何错误,我很抱歉。
解决方案
如果增加批量大小会发生什么?
推荐阅读
- linux - 当我使用 vsp 拆分 vim 时如何在半屏中显示手册页
- npm - 在 Wix Corvid 中单击后端代码中的 Packages (npm) 下的“Install a New Package”时出现“Package Installation Error”
- javascript - 设置可通过此访问的动态变量。来自 VueJS 中的外部文件不起作用
- python - 赋值前引用的局部变量
- bash - 0 在 bash 中是否意味着真的?!0 表示假?
- c - 使用命令行参数 (argc, argv) 的 C 计算器程序
- javascript - 检查输入字段是否已更改
- java - 如何在没有共享接口的情况下处理等效对象
- eclipse - 在 Eclipse 中使用 GitLab LFS
- json - 使用 jq 逗号分隔获取 json 输出重复我的输出