tensorflow - TensorFlow:在测试时丢弃卷积梯度/参数
问题描述
最近我一直在阅读卷积神经网络 (ConvNets) 消耗的内存。在训练期间,每个卷积层都有多个反向传播梯度所需的参数。这些讲义表明,这些参数原则上可以在测试时丢弃。链接注释的引用:
通常,大多数激活都在 ConvNet 的较早层(即第一个 Conv 层)上。这些被保留是因为它们是反向传播所必需的,但是一个仅在测试时运行 ConvNet 的巧妙实现原则上可以通过仅在任何层存储当前激活并丢弃下面层上的先前激活来大大减少这一点.
有没有办法(使用 TensorFlow)利用这种“聪明的实现”来推断大批量?是否有一些标志指定模型是否处于训练阶段?或者这是否已经根据是否调用优化器函数自动处理?
解决方案
推荐阅读
- javascript - 通过 javascript 对象访问数据并将其打印在 html 页面上
- python - Python:将 json 结果更改为 data.frame
- android - 发布版本上的 INSTALL_PARSE_FAILED_NO_CERTIFICATES
- c# - 有没有办法在 c# 中安装的 Windows 键盘布局之间切换?
- mongoose - Mongoose - 用户方法不改变用户
- algorithm - 从完全二叉搜索树顺序转换为排序顺序的算法,反之亦然
- android - 如何同时运行多个 doAsync?
- c# - 在 .NET Core 应用程序中使用 LTTng 事件
- c# - 翻译不能仅在本地环境中远程工作
- javascript - 如何使数据库搜索中的术语成为 code.org 中的用户输入