machine-learning - 学习率如何影响梯度下降?
问题描述
当梯度下降定量地表明要减少很多偏差和权重时,学习率在做什么?我是初学者,有人请赐教。
解决方案
学习率是一个超参数,它控制我们根据损失梯度调整网络权重的程度。该值越低,我们沿着向下的斜坡行驶的速度就越慢。虽然这可能是一个好主意(使用低学习率),以确保我们不会错过任何局部最小值,但这也可能意味着我们将需要很长时间才能收敛——尤其是如果我们陷入困境一个高原地区。
new_weight = existing_weight — learning_rate * 梯度
如果学习率太小,梯度下降可能会很慢
如果学习率快,梯度下降会超过最小值。它可能无法收敛,甚至可能发散
推荐阅读
- vue.js - 将数据从父级传递给子级工作 1 次
- linux - 无法将 ubuntu ec2 实例上的 /tmp 挂载绑定到 docker 容器
- sql - 四肢选择
- excel - 排序日期(欧洲格式)
- git - 有什么方法可以在 git 中找到我们最新的 pull commit Id 吗?
- sql - 发现一个 SQL 错误,我不知道该怎么办
- python - 在没有深度学习框架的情况下运行 GPU 进行计算
- android - Android Studio 是否可以选择自动扫描非活动选项卡以查找错误/警告/lint 等?
- php - 无法从 APi 更新高级自定义字段中的字段
- c# - 依赖注入和未使用的构造函数