python - 如何获得仍然具有 requires_grad True 的渐变
问题描述
让w
和phi
成为两个参数
w = Parameter(T.tensor([2.2]))
phi = Parameter(T.tensor([1.5]))
wp = w*phi
wp.backward()
grd = phi.grad
print(grd)
打印:
tensor([2.2000])
我想:
tensor([2.2000], requires_grad=True)
即我想要哪个phi.grad
是w
更大网络的参数,应该有requires_grad=True
这样我就可以做到
grd.backward()
w.grad
我不知道如何分离这两个计算图。
解决方案
推荐阅读
- azure-devops - 验证用户是否被删除或不使用 SAML 令牌
- javascript - jQuery函数多次使用会破坏网站
- android - Android Telegram 语音通话记录器
- firebase - 显示到 TextFormField Flutter 时从 Firebase 获取返回 null 的值
- c++ - 知道纯虚函数的误差
- reactjs - 如何使用 post 方法将 id 发送到 api?
- machine-learning - 如何在 LSTM-Autoencoder 或其他异常检测方法中混合连续和离散的分类信号?
- c - 如何包含 libconfig 的 .cfg 文件路径?
- javascript - 如何在 React Native 的其他函数中使用 useState
- python - Statsmodels SARIMAX 中包含零的外生数据的预处理和日志转换