python - “tf.nn.relu(A)”和“tf.maximum(A, 0)”是一样的吗?
问题描述
这里有两个代码。
tf.nn.relu("output of previous layer")
tf.maximum("output of previous layer", 0)
这两个行为完全一样吗?
换句话说,是否可以用另一个替换一个?
解决方案
一旦 relu 被定义为:
max(features, 0)
它们基本相同。两者都将张量作为输入并返回一个张量。唯一的区别是支持的类型。
支持以下tf.nn.relu
类型:
float32
,float64
,int32
,uint8
,int16
,int8
,int64
,bfloat16
,uint16
,half
,uint32
,uint64
,qint8
while tf.maximum
支持上述类型的子集:
half
,float32
,float64
,int32
,int64
推荐阅读
- batch-file - 在cmd中使用for循环将串口的输出管道化以卷曲
- delphi - 当我将数字分配给 Double 或 Extended 变量时,为什么会得到不正确的值?
- c - 使用 VS Code、Makefile 和自定义 bash 脚本在 C 语言中调试头文件
- typescript - TS 编译器 API:防止导出。出现在没有导出修饰符的节点上
- neovim - 如何查询当前工作目录的 neovim API?
- android - 将图像从 api 存储到房间数据库中
- c# - 使用来自 UserControl 资源文件的字符串资源
- amazon-web-services - 如何更改我的 Lambda 函数 API 端点的名称
- python - 如何在 Python 中停止函数中间运行
- cuda - 链接通过clang编译.cu文件生成的.ll文件