python - 如何解决在pytorch中加载预训练模型时的大小不匹配问题?
问题描述
我正在尝试将卷积层的过滤器(通道)数量为 的预训练模型加载到卷积层中64
具有128
过滤器的模型中。我使用new_network.load_state_dict(pretrained_model, strict=False)
但我面临所有这些层的大小不匹配错误。如何使用可用的预训练模型权重初始化每个卷积层中的一些过滤器?
解决方案
推荐阅读
- ios - UNNotification 本地通知和请勿打扰
- android - Qt for android - 没有在对话框中获得输入焦点
- keras - 在自定义 keras 层中初始化和访问权重数组
- spring - Log4jConfigurer 无法解析
- apache-spark - 在 pyspark 中分解 Maptype 列
- thingworx - 如何将视频发布到 Thingworx 平台
- visual-studio - Selenium 执行 SendKeys(Key.Enter) 时 Chrome 崩溃
- django - 防止在 SerializerMethodField 中重复查询
- angular6 - Angular 6无法读取未定义的属性'getScroll'
- python - Sklearn TfIdfVectorizer 删除包含所有停用词的文档