machine-learning - 在协同过滤的梯度下降中,x 和 theta 是否同时更新?
问题描述
我正在学习 Andrew Ng 的机器学习课程,并且正在学习第 16 章:推荐系统。我目前看完了关于协同过滤的部分。在其中,他谈到了如何猜测参数:theta,然后用它来预测 x 并使用预测的 x 来学习更好的参数,等等。他还说可以同时完成,并给出了梯度下降算法:
我想问一下 x 和 theta 是否同时更新。例如,对于每次迭代:在 x 上执行一次梯度下降后,我是否使用 x 的新值重新计算平方误差和,然后在 theta 上执行梯度下降,然后重复直到收敛。或者我是否在 x 上执行单个梯度下降,使用相同的平方误差和,也在 theta 上执行梯度下降
解决方案
推荐阅读
- python - 熊猫使用函数突出显示带有条件的excel列
- parallel-processing - 并行:像 pblapply 一样使用 parLapply 时模仿监控
- javascript - 尝试获得平均值时变得不确定
- python - 在 Python 中非阻塞启动并发协程
- javascript - zopim : 添加标题属性
- javascript - 查找所有长度为 n 的 m 个数组组合的集合
- wpf - How to prevent WPF Gridviewcolumn collapse fully
- python - Passing file and data to requests, error at every turn
- intellij-idea - 列出 IntelliJ 模块中的所有错误
- java - 使用流对内部对象的 Map 属性进行分组?