首页 > 解决方案 > 如果输入包含 NaN,则通过 Pytorch Element-Wise Operation 反向传播

问题描述

假设我想计算两个张量之间的逐元素商。如果其中一个张量包含 NaN,则所得商也将包含 NaN,我理解这一点。但是为什么梯度在整个操作中变得不存在呢?以及如何保留非 NaN 条目的梯度?

例如:

>>> x = torch.tensor([1.0, np.NaN])
>>> y = torch.tensor([2.0, 3.0])
>>> z = torch.div(y, x)
>>> z
tensor([2., nan])
>>> z.backward()
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
  File "/usr/local/lib/python3.6/dist-packages/torch/tensor.py", line 107, in backward
    torch.autograd.backward(self, gradient, retain_graph, create_graph)
  File "/usr/local/lib/python3.6/dist-packages/torch/autograd/__init__.py", line 93, in backward
    allow_unreachable=True)  # allow_unreachable flag
RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn

标签: pythonpython-3.xpython-3.6pytorch

解决方案


你的代码有很多错误,特此指出,希望能启发你:)

  • RuntimeError: element 0 of tensors does not require grad and does not have a grad_fn不是因为NaN. 这是因为您的输入变量都不需要梯度,因此 z 没有可能调用backward(). 您需要在某处启动反向传播树。
  • 您不能只.backward()使用具有多个值的张量。您需要sum()首先进行一些类似的操作,但这会NaN在您的情况下产生。z您可以通过调用分别反向传播两个部分.backward(torch.Tensor([1.0,1.0]))

因此,如果您修复了所有错误,它应该可以工作:

import torch
import numpy as np

x = torch.tensor([1.0, np.NaN], requires_grad=True)
y = torch.tensor([2.0, 3.0])
z = torch.div(y, x)

z.backward(torch.Tensor([1.0,1.0]))
print(x.grad)
tensor([-2., nan])

推荐阅读