python - 如何在不再次构建数据集的情况下读取 tensorflow 数据集缓存
问题描述
我创建了一个tf.data.Dataset
具有相当复杂转换的数据集 ( ),并将其缓存到一个文件中。我的问题是如何在不重新重建数据集对象的情况下再次读取该数据集的内容。例如:
import tensorflow as tf
tf.enable_eager_execution()
db = tf.data.Dataset.range(10)
db = db.cache('/tmp/range')
for v in db:
print(v)
# /tmp/range.data-00000-of-00001 /tmp/range.index files are created
# later, you could restore the dataset from a method like this:
new_db = tf.data.Dataset.from_cache('/tmp/range')
这个想法是在另一个上下文中构建数据集并使用它,而无需构建我之前拥有的复杂输入管道。
解决方案
我很确定如果您完成了一个时期的数据集读取,下次您开始新的训练时,即使您对管道进行了更改,它仍会从该缓存文件中读取。
推荐阅读
- c++ - 从 txt 文件中删除注释
- ios - 如何在 UITableView 中执行网络调用
- spring - 如何使用 Spring Boot 资源服务器拥有未经身份验证的端点
- python - 如何在 Python 中读取和写入 config.ini 文件?
- java - 使用 java 和 jsoup从网站上的标签中提取 src 值
- vb.net - 错误:无法为输出文件 #0 写入标头(编解码器参数不正确?):参数无效
- python - get() 接受 2 到 3 个位置参数,但给出了 4 个。为什么会出现这个错误?解决方案是什么?
- python - 如何提取
- java - 当定义的对象已经存在于地图中时,从我的地图中获取空返回值?
- mysql - 根据某天的两列从 MySQL DB 中删除每日重复项