deep-learning - 数据(图像)规范化的一些最佳实践是什么?
问题描述
我知道以下几种方法:
- 每个图像的平均归一化(image-image.mean/image.stddev)(这里的平均值是标量值)
- 对整个数据集进行的平均归一化(image-avgmean/avgstddev)(这里的平均值是向量(2d/3d)。
- 每个图像的最大最小归一化(image-image.min/image.max-image.min)(最小值和最大值是标量)
- 将图像除以 255。使其在 [0-1] 范围内。
我只是想问哪一个被证明更好,使用 relu,如果它有任何意义,那么使用 Batch-normalization。