python - 使用 tf.estimator.DNNRegressor 与 tf.contrib.learn.DNNRegressor 时结果更差
问题描述
我在使用tf.estimator.DNNRegressor
可用于 Tensorflow 的罐头时遇到问题。tf.estimator.DNNRegressor
在 3.05 左右的损失与0.018 的损失相比,我的结果要差得多tf.contrib.learn.DNNRegressor
。
重要的是要注意它们运行的是相同的代码(相同的功能、相同的时期、步骤、activation_fn=tf.nn.relu、hidden_units、优化器等)
我想知道这两个回归量之间是否存在一些显着差异。如果他们使用相同的参数,为什么我会得到更差的结果?以及如何解决这个问题以获得类似的结果?
我看到tf.contrib.learn.DNNRegressor
被弃用了,所以新的估计器实现至少应该有类似的结果,对吧?
在此先感谢您的帮助或澄清。
解决方案
推荐阅读
- sql - 如何避免替换 liquibase 变量
- javascript - 如何在反应打字稿中传递道具
- azure - Azure 应用服务将变量环境外部化到我的 Angular Web 应用程序中
- python - 在虚拟机上运行 SSH 时,在 while 循环中检测 Python 3.8 按键
- google-chrome - Chrome 扩展登录表单安全性
- reactjs - 如何在 React App 中使用 Styled-Components 全局包含字体
- amazon-web-services - AWS Redshift 上的物化视图
- php - 为什么我不能在 Laravel 迁移中添加外键?
- angular - 我如何将 http get response 的值分配给角度 8 中的子数组?
- swift - 检测 ObservableObject 的 ObservableObject 数组中的变化