reinforcement-learning - 使用 tf_agents.agents.DqnAgent 添加正则化损失
问题描述
我正在用它的 tf_agents.networks.q_network.QNetwork 训练我的 tf_agents.agents.DqnAgent,不幸的是,权重太大了。所以我认为 L2-Regularization 将是一个好主意。但是,不可能将自己的正则化层添加到 QNetwork 并且在文档中我也找不到任何方法将正则化损失添加到训练过程中。
有谁知道使用 tf_agents 库规范深度 Q 学习的优雅方法?非常感谢您!
解决方案
推荐阅读
- python - 如何正确使用“setComponentModifierValue”命令在 OpenModelica 中设置双精度数组
- bokeh - 设置初始图中可见条的数量
- javascript - 在 Django 表单中使用 .submit(function) 时出现“禁止 403 - CSRF 验证失败”
- python - 从对角线开始将向量写入矩阵
- jquery - 将数据表导出到 Excel 时向 messageTop 添加消息
- heroku - AWS S3 上的 SSL,部署在 Heroku 上
- ms-access - 在 ms 访问中替换已删除的数据透视表功能
- sql - 从 MIN 日期获取 MAX 日期时间值
- android - 哪个 JS 版本支持增强现实的平面检测?
- ruby-on-rails - 使用集群模式和 preload_app 进行 Puma 零停机部署 - 新连接和当前连接会发生什么情况?