tensorflow - 使用 ADAM 优化器时真的有必要调整/优化学习率吗?
问题描述
在 tensorflow/keras 中使用 ADAM 作为优化器时,是否真的需要优化初始学习率?如何做到这一点(在 tensorflow 2.x 中)?
解决方案
这是。与任何超参数一样,应该搜索最佳学习率。即使使用像 ADAM 这样的优化器在衰减等方面具有很好的特性,您的模型也可能无法学习学习率是否太大或太小。
在这篇文章中可以看到 ADAM 优化器下模型在学习率方面的行为示例如何为您的机器学习项目选择最佳学习率
寻找正确的超参数称为超参数调整。我没有在我的项目中使用 TF 2.*,所以我将参考 TensorFlow 本身通过 HParams Dashboard 提供的超参数调整
推荐阅读
- amazon-web-services - 如何使用 Amazon Personalize 根据分类预测用户对某个项目的亲和力?
- angular-i18n - 错误中的占位符名称与提供的翻译不匹配
- autodesk-forge - Forge Viewer:更改片段材质
- elasticsearch - 如何在 Kibana 中修改数据表列值
- android - Intent 服务销毁后仍出现前台通知
- ios - 将应用程序启动时来自服务器的对象视为非可选对象
- mysql - R中的mysql - 使用ID的文本文件对表进行子集化
- copy - 如何在 1 时间内复制和重命名文件?
- c# - XmlSerializer 不序列化列表
- jpa - 在 Payara 中设置 eclipselink 缓存协调