machine-learning - Train Accuracy 增加,Train loss 稳定,Validation loss 增加,Validation Accuracy 低并且增加
问题描述
我在 pytorch 中的神经网络训练变得非常奇怪。
我正在训练一个已知的数据集,该数据集分为训练和验证。我在训练期间对数据进行洗牌,并在飞行中进行数据扩充。
我有这些结果:
我有以下图表要显示:
你如何解释验证损失增加和验证准确度增加?
验证集和训练集之间的准确性差异怎么会如此之大?90% 和 40%?
更新:
我平衡了数据集。是二分类。现在它有来自第 1 类的 1700 个示例,来自第 2 类的 1200 个示例。总共有 600 个用于验证,2300 个用于训练。我仍然看到类似的行为:
**可能是因为我冻结了部分网络的权重吗?
**可能是因为像 lr 这样的超参数吗?
解决方案
我找到了解决方案:我对训练集和验证集进行了不同的数据扩充。匹配它们也提高了验证的准确性!
推荐阅读
- typescript - 用于分析的屏幕跟踪中 React Navigation v5 中 routeNameRef 的 Typescript 类型
- html - 我想使用 thymeleaf 模板引擎在属性文件中显示文本
- c - 在 Eclipse 中运行简单的 hello world 程序 C 时出错
- oracle - 操作从内部查询传递的外部查询中的结果集
- performance - Elasticsearch 上无法解释的慢查询
- android - Android Camera Intent 在 OnePlus 设备中不起作用
- php - 如何在不解压 PHP/Codeigniter 的情况下读取压缩文件中的电子表格?
- mysql - 如何加快 mySQL 中的请求?
- google-cloud-platform - 经济高效地摄取 DLP 作业的结果
- python-3.x - 我需要 django 中 AbstractBaseUser 的 has_perm() 示例