tensorflow - 关于 tff.simulation.datasets.stackoverflow.load_data(cache_dir = None) 的问题
问题描述
我一直在使用这个函数从 stackoverflow data_set 加载数据。但是,出现一个问题,每次我使用此函数并将 cache_dir 设置为 keras/dataset 的位置或缓存的位置时,它仍然尝试从 Internet 下载 tar(即使我已经有了 8.5G tar本地文件下载)。有没有一种简单的方法可以避免从互联网下载和本地访问?
我也尝试编写保存和加载函数,但似乎它们不能应用于 HDF5ClientData 类型。
解决方案
推荐阅读
- arrays - 在 F# 中移动数组
- python - 在 Python 中处理数百万行
- vega-lite - 在 Vega lite 中设置最大轴值
- javascript - 使用 ES6 的 Class 特性时无法访问 JavaScript 中成员方法中的字段
- clang - 如何使用 clang ast 匹配器匹配 typedef
- android - 使用长字符串作为多行文本视图
- python - 如何在 PyFilesystem 中使用内存映射文件(numpy.memmap)?
- sql - 如何遍历 hive 中的所有分区?
- javascript - 如何使用 javascript 在 FormData 的内容配置中设置文件名*?
- python - 如何使用 For 循环修复列并使用 python pandas 放入另一列?