首页 > 解决方案 > 关于迁移学习中不可训练的层数

问题描述

我正在为我的数据集试验 VGG16 和 InceptionV3 模型。

我在 Kaggle 中看到的一个使用 InceptionV3 模型的内核将 51 个初始层设置为不可训练。

另一方面,我在某处看到使用了 VGG16 模型,除了最后 4 层外,其他所有层都设置为不可训练。

我正在寻找一种通用的通用方法,关于我应该为任何模型设置多少层为不可训练的。

或者任何基本的清单列表之类的东西,我可以从中决定我的问题陈述。

从预训练的 NASnet 网络中看到了这个迁移学习。如何知道要冻结的层数?但无法理解为什么选择该特定点的答案

标签: kerasconv-neural-networktransfer-learning

解决方案


推荐阅读