tensorflow - PyTorch BatchNorm1D、2D、3D 和 TensorFlow/Keras BatchNormalization
问题描述
我想BatchNorm1D
在 TensorFlow 的 PyTorch 中使用 like。我注意到BatchNormalization()
在 TF 中有axis=-1
默认设置。BatchNorm1D, BatchNorm2D, BatchNorm3D
PyTorch 中哪个轴是正确的?
解决方案
这取决于您订购的尺寸。
Pytorch 在轴 = 1 上执行其批处理规范。但它也有 axis=1 的张量作为卷积通道。
Tensorflow 在卷积的最后一个轴上有通道。所以它的batchnorm把它们放在axis=-1中。
在大多数情况下,使用默认设置应该是安全的。
推荐阅读
- python - 文件打开/读取的Python未定义行为
- assembly - 在 x86 程序集中手动设置 errno 时,perror() 打印“未知错误号”,而不是“消息”
- floating-point - 在会计软件中四舍五入到小数点后 2 位导致总数出现差异
- html - 添加一些边距或填充以显示粘性导航栏下的部分
- angular - 如何在Angular上实现leaflet-moving-marker的movingMarker?
- php - get_user_meta 将 first_name 返回为空
- python - 为什么 OpenCV HaarCascade 不能正常工作
- angular - 是否也可以在错误状态响应(403 或 404)上启用 Apache 代理缓存?
- java - Hibernate Envers - 删除实体时删除修订
- flutter - 使用 admob 颤动的不可跳过的奖励广告