tensorflow - 为什么训练不使用 TensorFlow 文本教程中的完整训练数据集
问题描述
看了TensorFlow的文本分类教程后有个疑问:https ://www.tensorflow.org/tutorials/keras/text_classification_with_hub
在数据准备阶段(https://www.tensorflow.org/tutorials/keras/text_classification_with_hub#download_the_imdb_dataset),它说训练数据包含15,000 examples for training
.
但是,在模型训练阶段(https://www.tensorflow.org/tutorials/keras/text_classification_with_hub#train_the_model),代码使用了 10000 个样本。
history = model.fit(train_data.shuffle(10000).batch(512),
epochs=20,
validation_data=validation_data.batch(512),
verbose=1)
谁能解释为什么训练剂量不使用整个训练数据集(即 15000 个样本)?谢谢。
解决方案
推荐阅读
- c# - 如何在 WebBrowser 中使用 chrome 而不是 Internet Explorer 作为浏览器
- javascript - Fetch 如何接收和存储 cookie?
- python - '因超时而终止'
- javascript - 响应结束时导出到 exel 文件错误
- java - 在 Eclipse 中使用 Spring MVC 5 的新项目,但出现错误 404
- r - 在 ggplot2 中使用堆叠的条形图会导致轴错误
- javascript - 节点 API 从异步节点模块接收结果到单独的模块
- emacs - 如何设置 byte-recompile-directory 使用缓存目录?
- python - 优雅高效的方式保留日期值,没有OOB错误
- c++ - 在头文件中声明一个空类与添加一个包含指令