python - 对我的模型的准确性感到困惑
问题描述
我在我的大学项目中遇到了这个问题,这是一个点击诱饵新闻分类器,即它在点击诱饵标题和非点击诱饵标题之间进行分类。我正在使用具有每种类型 16000 个标题的数据集。现在,我面临的主要问题是在 70% 的数据上训练我的网络,其中 30% 作为我的测试集大小。我的验证集是训练集的 30%。但是在我的测试集上拟合和评估模型之后,我得到了这个
装好后:
纪元 10/10 131/131 [===============================] - 1s 6ms/步 - 损失:0.2098 - 准确度:0.9457 - val_loss:0.3263 - val_accuracy:0.9417
在测试集上评估后:
300/300 [==============================] - 1s 2ms/步 - 损失:0.3030 - 准确度:0.9432
混淆矩阵:
数组([[4638, 162], [383, 4417]])
现在我对神经网络很陌生,我不确定这些精度是否应该彼此相似。这是我应该关注的事情还是我错过了什么?我很感激我能得到的所有帮助......谢谢!
解决方案
你的结果看起来不错。您的测试集和验证集的概率分布必须彼此紧密匹配,因此验证和测试数据准确性的相似性。
推荐阅读
- python - 如何使用 XPath 选择样式不包含 display: none 的元素并排除其子元素
- css - 新版 chrome 84.0.4147.105 的样式错误
- discord.js - Discord.js v12 出现反应消息问题
- typescript - VueJs - 无效的道具:道具“页面”的类型检查失败。预期 DocumentPageDto,得到对象
- java - Java11 迁移 - 编译错误,Symbol$ClassSymbol 无法转换为类 Symbol$MethodSymbol
- r - 有条件地替换组内的 nr
- python - 为什么覆盖 __lt__ 也会改变大于运算?为什么要用它来排序?
- reactjs - Material-UI:使用 withStyles 自定义 Box 组件
- testng - 报告门户测试 NG 集成
- git - Git diff 没有显示预期的变化