tensorflow - 为什么 tf.nn.relu 和 tf.nn.sigmoid 在这个自定义估计器中的工作方式相同
问题描述
这是在 TensorFlow 中制作自定义估算器的指南: https ://www.tensorflow.org/guide/custom_estimators
隐藏层使用tf.nn.relu
:
# Build the hidden layers, sized according to the 'hidden_units' param.
for units in params['hidden_units']:
net = tf.layers.dense(net, units=units, activation=tf.nn.relu)
我稍微改变了这个例子来学习XOR, withhidden_units=[4]
和n_classes=2
。当激活函数更改为tf.nn.sigmoid
时,示例照常工作。为什么会这样?它是否仍然给出正确的结果,因为 XOR 输入只是零和一?
这两个函数都给出了平滑的损失曲线收敛到零线。
解决方案
推荐阅读
- codeblocks - 如何在 Code::Blocks 17.12 中设置暗模式?
- sql-server - 冲突的外键 SSMS
- r - 如何循环获取最小 RMSE 值并在每列中使用“应用”进行预测
- bash - (bash)系统地将更改应用于变量数组的最不冗余的方法是什么?
- mysql - 如何在sql中计算这个百分比?
- python - 使用 Python 的多列 UTC 到 PST
- javascript - 我正在使用 axios 向指环王 API 发出 GET 请求,我是编码新手,但无法正确发送访问密钥
- jquery - 模态关闭时重置动画Jquery
- flutter - Flutter 视频播放器仅在 iOS 上引发异常
- postgresql - 查找每个类别的中值