首页 > 解决方案 > 为什么训练不使用 TensorFlow 文本教程中的完整训练数据集

问题描述

看了TensorFlow的文本分类教程后有个疑问:https ://www.tensorflow.org/tutorials/keras/text_classification_with_hub

在数据准备阶段(https://www.tensorflow.org/tutorials/keras/text_classification_with_hub#download_the_imdb_dataset),它说训练数据包含15,000 examples for training.

但是,在模型训练阶段(https://www.tensorflow.org/tutorials/keras/text_classification_with_hub#train_the_model),代码使用了 10000 个样本。

history = model.fit(train_data.shuffle(10000).batch(512),
                    epochs=20,
                    validation_data=validation_data.batch(512),
                    verbose=1)

谁能解释为什么训练剂量不使用整个训练数据集(即 15000 个样本)?谢谢。

标签: tensorflow

解决方案


推荐阅读