tensorflow - 为什么 tf.gfile.Glob 需要大量 RAM?
问题描述
我尝试从远程 hdfs 获取文件,我发现如果我调用 'tf.gfile.Glob',它会花费我 10G RAM。
我该如何避免这种情况,因为我的输入管道是多处理的,并且我需要尽可能多的进程才能足够快地获取远程 tfrecord!
解决方案
这是我前段时间报告的一个错误:https ://github.com/tensorflow/tensorflow/issues/23733
某些版本的 Tensorfow 会受到影响。由 Archlinux 中的 tensorflow 包维护人员编译的一个,我发现在 cuda 环境中安装 tensorflow 时也会发生这种情况。
因此:如果您使用 conda,请尝试更改 tensorflow 版本/您使用的环境。
推荐阅读
- javascript - JQuery validation error placement repeating itself
- dax - 在dax公式中使用excel中的定义名称
- regex - 修改 `date` 格式以具有“2nd”/“3rd”/等。使用 case 语句和/或正则表达式
- c# - 换钱 ; 右侧的减号
- javascript - Replace strings with objects in nested arrays
- html - How to set textarea to 100% width and height?
- android - 在 Android 中使用 Google Cloud PubSub,找到正确的库
- git - 如何仅合并 vimdiff 中的远程更改?
- javascript - 如何从 GCS 中的图像的 Firebase 功能触发浏览器中的下载?
- java - 最终变量可能已经被赋值