python-3.x - 机器学习研究论文的结果/比较部分说明了哪种准确性?是训练准确性还是验证准确性
问题描述
我正在研究人类活动识别,我目前正在尝试通过运行正在实施论文的 GitHub 存储库来重现论文的结果。我几乎花了两个月的时间让代码运行起来,现在我终于能够运行代码并得到以下结果。
在对模型进行了大约 200 个 epoch 的训练后,我得到了 80% 的训练准确率,而验证准确率停滞在 50% 左右。在论文和存储库中,他们声明准确率为 83%,表格标题为“UCF-101 上的平均准确度(超过三个分割)”。现在我真的很困惑,他们是在谈论训练准确性还是验证准确性?因为我没有看到我的验证准确率超过 50%。当我从存储库运行代码时,我不应该更改模型中的任何参数,并且应该在论文和存储库中获得上述结果?
原纸:https ://proceedings.neurips.cc/paper/2014/file/00ec53c4682d36f5c4359f4ae7bd7ba1-Paper.pdf 。
GitHub 回购:https ://github.com/wushidonguc/two-stream-action-recognition-keras
解决方案
推荐阅读
- javascript - /tmp/chromium:加载共享库时出错:libnss3.so:无法打开共享对象文件:没有这样的文件或目录 Vercel
- android - Gradle 同步失败:removeContentEntry:删除的内容条目 url '...' 删除后仍然存在
- python - 在 SQLAlchemy 中使用 with_entities 而不是 load_only 时速度有什么不同吗?
- google-sheets - Google 表格上的 ImportXML 函数
- javascript - 配置导入的 JS 模块的调试
- orocommerce - AWS 上的 Orocommerce 应用程序根目录
- triggers - 仅在复选框未选中到选中后触发才运行
- .net-core - .NET Core - 使用 AddSingleton() 在容器中配置的类需要是单例吗?
- laravel - 为什么 vagrant up 不生成代码目录?
- java - 如果它取决于 Mono 对象,我如何返回响应?