python - 如何在训练过程中查看 PyTorch 中的 weight_decay 损失?
问题描述
我在 PyTorch 中使用 Adam 优化器训练模型并将weight_decay
参数设置为 1.0。
optimizer = optim.Adam(model.parameters(), lr=args.lr, weight_decay=1.0)
optimizer.zero_grad()
loss.backward()
optimizer.step()
如果我想比较损失的数量weight_decay
和模型损失,我如何查看造成的损失的价值weight_decay
?
解决方案
推荐阅读
- reactjs - 在 react-cropper 中设置最小图像分辨率
- php - Laravel 视频、音频和图片上传
- sas - SAS EG 本地提交
- java - 接收实体更新时,如何在不应理解传入 DTO 的类中访问以前的值?
- excel - 如何在VB Excel中从另一个模块调用一个模块的变量
- php - 在 Laravel 5.1 中使用 wp 之类的简码渲染数据
- javascript - 如何在角度 5 的剑道 UI 树视图中添加自定义图标?
- php - 如何用我的案例重写 URL
- mysql - 查询以避免左外连接或内连接
- javascript - 如何避免角度应用程序中遵循的一系列输入?