python - 使用 tf.keras.preprocessing.image_dataset_from_directory 的 tf.data.Dataset 训练模型非常慢 keras
问题描述
我正在使用 tf.keras.preprocessing.image_dataset_from_directory 加载我的大型数据集。fit_generator()
问题是,尽管我使用的是 google Colab GPU ,但当我利用这种方法时,训练阶段非常慢。代码是:
image_size = (224, 224)
batch_size = 32
data = tf.keras.preprocessing.image_dataset_from_directory(
'/content/drive/My Drive/dataScience/september exam/data/trainImg',
seed=1337,
image_size=image_size,
batch_size=batch_size,
)
培训:
model.fit_generator(train_dataset,
epochs=50,
verbose=1)
解决方案
您可以尝试将图像形状减小到 128x128,减小 batch_size 并使用model.fit()
Collab 的 GPU,您应该使用 . 希望这有助于您进行时间优化。
推荐阅读
- php - 无法获取 phpMyAdmin 页面
- python - 可以压缩这些多个 if 语句吗?
- c# - 身份用户登录后如何将模型数据传递给控制器?
- java - Faker Api 未返回特定国家/地区的地址
- c++ - 根据其中的数字子字符串拆分字符串
- javascript - 如何从数组中提取某些单词?
- java - 如何解决错误:只有创建视图层次结构的原始线程才能接触其视图
- php - 如何将变量传递给 Wordpress 前端的 admin-ajax.php
- perl - XML::LibXSLT 无法在 macOS Catalina 上安装
- sql - SQL 语句查找 tbl1 的唯一记录,但不存在与 tbl2 相同的记录