首页 > 解决方案 > 为什么 torch.gt 函数将 requires_grad 变为 False?

问题描述

requires_grad张量的bcTrue。但是requires_grad张量d的 是False。我很好奇为什么会发生这种变化,因为所有requires_grad输入都是 True。

然而,requires_grad张量e的 为真。我还可以backward()继续e。但是这种方式有错误吗?

我正在使用 Python3.7 和 Pytorch1.1。

import torch
import torch.nn as nn

net = nn.Conv2d(1, 1, 3, padding=1)
a = torch.randn(1, 1, 10, 10)
b = net(a)
c = net(b)

d = torch.gt(b, c)

e = b - c
e[e > 0] = 1.0
e[e < 0] = 0.0

标签: pythonpytorch

解决方案


我认为这是因为您不能采用大于操作的梯度。返回类型是布尔值:

>>> torch.gt(torch.tensor([[1, 2], [3, 4]]), torch.tensor([[1, 1], [4, 4]]))
tensor([[False, True], [False, False]])

而减号或其他算术运算返回另一个数字。


推荐阅读