首页 > 解决方案 > 较小的输入大小在迁移学习中是否会更快收敛,并且在寻求更好的准确性时是否可以?

问题描述

您好,我正在尝试将迁移学习与 Xception 一起使用,我有一个问题。当我这样做时:

xception=Xception(input_shape = (IMAGE_WIDTH, IMAGE_HEIGHT, IMAGE_CHANNELS, include_top=False, weights='imagenet')   

IMAGE_WIDTH=192 IMAGE_HEIGHT=256 IMAGE_CHANNELS=3

每个 epoch 的时间约为 830s

当我这样做时:

xception=Xception(input_shape = (150, 150, IMAGE_CHANNELS, include_top=False, weights='imagenet')

每个 epoch 的时间约为 340s

而且我的原始图像大小是 IMAGE_WIDTH 和 IMAGE_HEIGHT

我想采用后者,因为它更快,但我想知道您的意见。将 input_shape 设置为原始大小会带来更好的结果吗?

标签: machine-learningkerastransfer-learning

解决方案


是的,它应该带来更好的结果。但是,这高度依赖于您的数据集和实验性。不能说它在性能方面会有什么不同,它肯定会更慢。

有一个权衡。

  • 更好的结果 --> 更慢的模型
  • 不太好的结果 --> 更快的模型

推荐阅读