首页 > 解决方案 > 如果我们从最后一层一次更新一个反向传播中的参数怎么办?

问题描述

假设我们有一个具有一个输入层、一个输出层和一个隐藏层的神经网络。我们将输入到隐藏的权重称为 ,将隐藏到输出的权重称为 。假设我们已经初始化 和 ,并通过前向算法/通过神经网络运行它们。假设我们已经通过反向传播进行了更新。现在不是同时更新,如果我们使用 new 计算梯度,然后同时更新两者。然后再一次前向传递,计算梯度,更新,计算新梯度,同时更新,等等。我已经这样做了,它导致了成本函数的更快收敛。

标签: neural-networkgradientgradient-descentbackpropagation

解决方案


推荐阅读