首页 > 解决方案 > 如何获得仍然具有 requires_grad True 的渐变

问题描述

wphi成为两个参数

w = Parameter(T.tensor([2.2]))
phi = Parameter(T.tensor([1.5]))
wp = w*phi
wp.backward()
grd = phi.grad
print(grd)

打印:

tensor([2.2000])

我想:

tensor([2.2000], requires_grad=True)

即我想要哪个phi.gradw更大网络的参数,应该有requires_grad=True这样我就可以做到

grd.backward()
w.grad

我不知道如何分离这两个计算图。

标签: pythonpytorchautogradcomputation-graph

解决方案


推荐阅读