information-retrieval - Trec_eval 给出的结果与预期不同
问题描述
我在 Google Colab 中使用 trec_eval 9.0.7 进行大学项目。我有一个 .txt 文档,共有481个文档,其中87个是相关的。我检索了前 20 个结果,从这20 个文档中,有7个是相关的,这意味着P@20应该是7/20 = 0.35。但是,当我运行以下代码时:
import os
myCmd = os.popen(f"./trec_eval -q -m P.20 {qrelFile} {resultsFile}").read()
print(myCmd)
它给了我以下结果:
P_20 23 0.4000
P_20 all 0.4000
这也发生在其他评估措施上。我检查了真实情况和结果文件。这两个文件都具有正确的参数,并且以正确的方式构建。
这是 trec_eval 检索到的误报的情况吗?如果不是,是什么导致了这种差异?可能是因为我自己的数学结果计算错误吗?
解决方案
推荐阅读
- android - 如何添加调试签名证书并从命令 propmt 获取 (SHA-1)
- r - R - 按日期分组并计算每天不同的值出现次数
- ios - 应用安装后删除钥匙串数据
- iphone - Iphone Simulator 未显示在开发人员菜单中
- apache-spark - 如何决定何时使用 spark sql 缓存或持久化?
- angular - 将菜单组件放置在表格的列内
- java - 来自 HttpURLConnection OkHttp3 的连接泄漏警告
- objective-c - 使用 Xcode 9.4.1 构建时 Mac 应用程序崩溃,使用 Xcode 8.3.3 构建时运行良好
- ruby-on-rails - 如何使用 wicked_pdf 在 ruby on rails 中使用的 erb 模板渲染 excel 表?
- bittorrent - bittorrent 片选策略