首页 > 解决方案 > 在协同过滤的梯度下降中,x 和 theta 是否同时更新?

问题描述

我正在学习 Andrew Ng 的机器学习课程,并且正在学习第 16 章:推荐系统。我目前看完了关于协同过滤的部分。在其中,他谈到了如何猜测参数:theta,然后用它来预测 x 并使用预测的 x 来学习更好的参数,等等。他还说可以同时完成,并给出了梯度下降算法:

协同过滤梯度下降算法示意图

我想问一下 x 和 theta 是否同时更新。例如,对于每次迭代:在 x 上执行一次梯度下降后,我是否使用 x 的新值重新计算平方误差和,然后在 theta 上执行梯度下降,然后重复直到收敛。或者我是否在 x 上执行单个梯度下降,使用相同的平方误差和,也在 theta 上执行梯度下降

标签: machine-learningregressiongradient-descentcollaborative-filteringrecommender-systems

解决方案


您可以同时进行一次更新。您甚至可以x使用以下方法同时在一个公式更新和 theta 中总结它: 在此处输入图像描述


推荐阅读