首页 > 解决方案 > 从 torch.autograd.gradcheck 中删除 zero_gradients

问题描述

我想在这里复制代码,在 Google Colab 中运行时出现以下错误?

ImportError:无法从“torch.autograd.gradcheck”(/usr/local/lib/python3.7/dist-packages/torch/autograd/gradcheck.py)导入名称“zero_gradients”

有人可以帮我解决这个问题吗?

标签: pythonpytorch

解决方案


这似乎使用的是非常旧版本的 PyTorch,该功能本身不再可用。但是,如果您查看此提交,您将看到zero_gradients. 它所做的只是将输入的梯度归零:

def zero_gradients(i):
    for t in iter_gradients(i):
        t.zero_()

然后zero_gradients(x)应该与 相同x.zero_grad(),这是当前的 API,假设xnn.Module!

或者它只是:

if x.grad is not None:
    x.grad.zero_()

推荐阅读