tensorflow - 训练和推理时 Alpha Dropout 的行为
问题描述
我正在使用 tensorflow实现自归一化神经网络。目前有tf.nn.selu和tf.contrib.nn.alpha_dropout形式的 tensorflow“原语”,这应该使这个过程变得简单。我的问题是 tf.contrib.nn.alpha_dropout。我期待它有一个布尔开关,用于训练和推理时,就像与其他激活函数一起使用的常用dropout函数一样。在作者最初的实现中,我们确实看到他们在 selu dropout 函数 (dropout_selu) 中有这个布尔开关(训练)。
有什么我想念的吗?
解决方案
推荐阅读
- sql - 如何在单元格中输入值?
- javascript - 错误:在 /node-package-path 中找不到 ESLint 配置
- css - 关于将文本与中心的 css 对齐
- r - 根据 y 值对条形图进行排序
- python - 根据先前的单元格和不同的列更新 Pandas 中的单元格
- python - 如何使用 Flask 和请求上传图像?
- reactjs - React 组件正在更改复选框类型的不受控制的输入
- r - eval 中的错误(predvars,data,env):在 RandomForest 函数中找不到对象“示例”
- c# - 在 Asp.Net Core 3.1 中通过复杂过滤器抛出 HttpApi
- c++ - 使用不同的 C++ 运行时构建 VS 2017 访问冲突