首页 > 解决方案 > Train Accuracy 增加,Train loss 稳定,Validation loss 增加,Validation Accuracy 低并且增加

问题描述

我在 pytorch 中的神经网络训练变得非常奇怪。

我正在训练一个已知的数据集,该数据集分为训练和验证。我在训练期间对数据进行洗牌,并在飞行中进行数据扩充。

我有这些结果:

训练准确率从80%开始并增加在此处输入图像描述

火车损失减少并保持稳定在此处输入图像描述

验证准确度从30%开始,但增长缓慢在此处输入图像描述

验证损失增加在此处输入图像描述

我有以下图表要显示:

在此处输入图像描述

  1. 你如何解释验证损失增加和验证准确度增加?

  2. 验证集和训练集之间的准确性差异怎么会如此之大?90% 和 40%?

更新:

我平衡​​了数据集。是二分类。现在它有来自第 1 类的 1700 个示例,来自第 2 类的 1200 个示例。总共有 600 个用于验证,2300 个用于训练。我仍然看到类似的行为:

在此处输入图像描述

**可能是因为我冻结了部分网络的权重吗?

**可能是因为像 lr 这样的超参数吗?

标签: machine-learningneural-networkpytorchtraining-dataloss

解决方案


我找到了解决方案:我对训练集和验证集进行了不同的数据扩充。匹配它们也提高了验证的准确性!


推荐阅读