machine-learning - 在实现小批量梯度下降时,随机选择训练样本更好吗?
问题描述
在实现小批量梯度下降时,随机选择训练示例(计算导数)是否更好?还是将整个训练示例洗牌然后遍历它们并每次洗牌会更好吗?第一种方法可能会导致我们跳过全局最小值。
解决方案
对输入数据进行排序意味着模型是在一组非代表性的输入上训练的。你已经改变了分布 - 可能相当大。
当您使用从整个数据集中随机选择(并希望具有代表性)批次的更标准方法时,仍然有可能跳过全局最小值。有许多方法可以帮助减少这种机会。您可能需要查看分级调整以减少步长,例如simulated annealing
.
推荐阅读
- apache - 重定向 - / 被移除
- rust - 如何在 Druid 中创建第二个窗口?
- reactjs - React JSX array.map() 无法读取数据。不明确的
- node.js - findOneAndUpdate 在数组中不起作用
- python - 使用变量查找 xpath selenium 不起作用
- authentication - 登录时 POST http://127.0.0.1:8000/api/login 401 (Unauthorized) 错误
- instagram - 是否有关于 Instagram 推荐引擎可解释性/因果推理的论文发表?
- python - python随机抽样行并生成抽样权重
- python - 使用 Flask 和 Pandas 将大型数据框写入 excel
- pine-script - 研究错误消息:输入订单的数量必须为正,输入值为 -834444.22394394