首页 > 解决方案 > 当我使用 tf.keras.optimizers.schedules.ExponentialDecay 时,如何获取 TensorFlow 2.0 中 SGD 优化器的当前学习率?

问题描述

我想在 tensorflow2.0 的 SGD 优化器中降低学习率,我使用了这行代码:

lr_schedule = tf.keras.optimizers.schedules.ExponentialDecay(
            initial_learning_rate=self.parameter['learning_rate'],
            decay_steps=(1000), 
            decay_rate=self.parameter['lr_decay']
        )
opt = tf.keras.optimizers.SGD(learning_rate=lr_schedule, momentum=0.9)

但是不知道是不是我的学习率下降了,怎么才能得到我当前的学习率呢?

标签: pythontensorflow2.0

解决方案


_decayed_lr方法根据迭代次数衰减 learning_rate,lr_decay并返回该特定迭代的实际学习率。它还将返回的值转换为您指定的类型。因此,以下代码可以为您完成这项工作:

opt._decayed_lr(tf.float32)

推荐阅读