python - Val 损失开始接近于零并保持 - 火车损失正常
问题描述
我正在尝试优化基于 LSTM 回归的预测模型。因此,我在我的代码中放置了一个循环来找到最佳学习率。但我觉得有些不对劲。它开始时的验证损失接近于零并保持在那里(比较图片)。 培训和价值损失
解决方案
用于深度学习的数据非常少。
根据图表,您很可能过度拟合验证集。考虑到在测试时未启用 dropout 和/或验证非常容易的情况,还有其他情况下验证损失可以小于训练损失。
我的建议是显着增加您的数据集,以下列方式(16000 - 2000 - 2000)总共拆分至少 20000 个样本。LSTM 需要大量数据进行训练。
推荐阅读
- apache-kafka - 如何使用 Apache Kafka Streams 找到最后一个跳跃窗口
- sql - 如何使用在 postgres 中创建期间设置的默认值更新列?
- jupyter-notebook - 从 miniforge 安装后,某些模块无法在 jupyter notebook 上导入
- sql - 创建新列并填充条件格式数据
- kotlin - 如何使用 Android 两种方式绑定在 EditText 中设置正则表达式?
- python - 在 Selenium/chromedriver 上几次刷新后显示 reCAPTCHA
- javascript - 如何在 Laravel Mix 中使用全局 JS 变量?
- asp.net - PayPal 中的订阅
- nginx - 使用 NGINX 代理 http GSSAPI 保护端点
- typescript - 打字稿界面对象键