python - 当我使用 tf.keras.optimizers.schedules.ExponentialDecay 时,如何获取 TensorFlow 2.0 中 SGD 优化器的当前学习率?
问题描述
我想在 tensorflow2.0 的 SGD 优化器中降低学习率,我使用了这行代码:
lr_schedule = tf.keras.optimizers.schedules.ExponentialDecay(
initial_learning_rate=self.parameter['learning_rate'],
decay_steps=(1000),
decay_rate=self.parameter['lr_decay']
)
opt = tf.keras.optimizers.SGD(learning_rate=lr_schedule, momentum=0.9)
但是不知道是不是我的学习率下降了,怎么才能得到我当前的学习率呢?
解决方案
_decayed_lr方法根据迭代次数衰减 learning_rate,并返回该特定迭代的实际学习率。它还将返回的值转换为您指定的类型。因此,以下代码可以为您完成这项工作:
opt._decayed_lr(tf.float32)
推荐阅读
- azure-logic-apps - 如何在 Logic-Apps 上调试代码?
- c# - 为什么这个 IOException 不在异步方法中抛出?
- vcdiff - 关于 RFC3284 - VCDIFF 格式的说明
- c++ - 使用求解器 SparseLU 并出现错误 C2664
- angular - 带有 AOT 的延迟加载模块 - TypeError: '' 从 NGINX 提供时不是函数
- php - 使用 Imagick 在 Codeigniter php 中均衡图像
- ios - 使用 WebRTC 在本机 iOS 应用程序中共享屏幕
- matplotlib - Matplotlib 没有正确显示符号/uni-codes
- javascript - “JSON 值”
' NSNull 类型的'在尝试将对象存储为 AsyncStorage 中的字符串时,无法在 React Native 中转换为 NSString" - optimization - 找到中心二项式系数 2n 的优化程序选择 n 模 (2n+1)