tensorflow - 训练期间损失率突然增加
问题描述
我正在尝试在一个数据集上训练 ResNet50,该数据集包含 16800 个大小(480,270)的图像,分为 100 个类别。在训练开始时,损失在减少,然后开始增加
我正在对我的模型使用以下编译设置:
model.compile(loss='categorical_crossentropy',
optimizer='adam',
metrics=['accuracy'])
我想知道这是否是一个过度拟合的方面,尽管数据集很大?我该怎么做才能帮助损失再次减少?我应该降低学习率还是等待更多的时期或其他解决方案?
解决方案
推荐阅读
- oracle - 仅当非零时如何格式化带小数位的数字?
- python - 模拟登录以在登录墙后面抓取数据的最简单方法
- bash - 无法找到并保存由构建 Docker 命令运行的代码生成的文件
- java - 在java中压缩字符串
- azure-devops - 强制停止 Azure 应用服务部署插槽交换
- angular - Angular Directive - ElementRef - 无法从 mat-form-field 中选择 mat-select
- java - 有没有办法知道用户的日落和日出时间而不需要启用定位服务?
- google-apps-script - 如何在 Google Scripts 中创建一个自动化脚本,但要更改 url 和条目?
- .net - 自定义结构的设计器序列化
- sass - 在 scss 中重用另一个类的特定属性