python - 在 tensorflow 中冻结层会节省模型更新时间吗?
问题描述
我正在尝试使用迁移学习方法训练模型,该方法涉及加载和冻结一个非常大的嵌入层。由于训练速度也是我在这项任务中关心的问题,我希望冻结层也能提高训练速度。但是,我根本没有观察到任何速度改进。
我使用冻结嵌入层
self.embedding_layer.trainable = False
模型摘要中观察到的不可训练参数是否增加
由于冻结层可能出现在模型中间,并且梯度需要向下传递到前几个可训练层,我认为 tensorflow 仍然计算冻结层的梯度,但只是在更新阶段跳过它们。
如果我的猜测是正确的,有没有办法从梯度计算中移除冻结层?
解决方案
推荐阅读
- javascript - 父/子进程或从 js 文件运行 npm 任务
- javascript - 动态站点再生 GatsbyJS
- c - C++ 到 Delphi dll 调用
- installation - Visual Studio Community 2019 - 运行、安装和报告问题
- python - networkx 边缘颜色始终为黑色,忽略颜色属性
- node.js - Docker容器中的mongodb正在运行,但拒绝连接?
- r - 从随机森林中提取一棵树,然后使用提取的树进行预测
- verilog - Verilog中2矩阵的乘法
- performance - Haskell中不重复字符的最长子串的性能
- powershell - 从powershell将变量传递给命令提示符有问题吗?