keras - 验证生成器批量大小
问题描述
我正在一个非常困难的数据集上训练一个 CNN。我得到了一些非常好的结果,但注意到我设法将验证生成器的批量大小设置为 1。不过,训练批量大小设置为 32。如果我知道将验证批量大小也更改为 32,那么我的结果很糟糕,而且我很难训练网络。
我只是无法理解为什么将验证批量大小设置为 1 或 32 会有任何差异。我使用 MSE 作为指标,并认为这只是所有样本的平均值。
那么为什么我会在批量大小为 1 时得到好的验证损失结果,而在批量大小为 32 时得到不好的验证损失结果呢?以 1 的批大小训练模型是否可以,或者在这种情况下我的模型是否过度训练?
提前感谢您的任何建议,
干杯,
迈克尔
解决方案
推荐阅读
- python - 在管道内给出时,Spark/pyspark 的 RFormula 是 VectorAssembler 和 Indexers 的替代品吗?
- assembly - 自定义x86内核访问char*的C函数给出随机值
- google-maps - 谷歌地图 - 折线未显示 - 使用带有 lng/lat 的 XML 文件
- reactjs - webpack 在树中构建一个原始的
- python - (discord.py) 如何检测自定义和默认表情符号
- perl - 有没有办法告诉一个包启用了哪些功能?
- database - 是否有任何数据结构包含两个相互指向的键?
- google-chrome-devtools - 堆快照中所有不同的 Detached [插入字符串]元素是什么意思
- javascript - 以编程方式从 Angular 的响应中收集嵌套对象键
- java - 拒绝java swing中对象数组的重复属性条目