lda - LDA 模型中 0.3 的相干值
问题描述
我对在评估 LDA 模型时使用连贯性分数有些困惑。
我在一个数据集上运行了一个 LDA 模型,并获得了从 0.32 到 0.37 的连贯性分数和从 -6.75 到 -6.77 的各种主题的困惑度分数。
我在 gensim 包中使用 LDA 模型,这是我用来计算相干分数的代码。
coherencemodel = CoherenceModel(model=lda_model, texts=texts, dictionary=id2word,
coherence='c_v')
coherenceScore = coherencemodel.get_coherence()
我一直明白,使用连贯性分数是为了找到 LDA 模型中使用的最佳主题数量。但我也被告知,0.3 的连贯性分数很差。
有人可以解释一下什么是连贯性分数吗?分数 0.3 是否表示模型不好?当我们在不同的 LDA 模型之间进行比较时,哪个是更好的评估方法,perplexity 或 coherence score?
解决方案
推荐阅读
- python - 在 Julia 中使用 PyCall.jl 时修改 Python 对象的属性
- java - 在 Android Studio 中存储和搜索字符串数据
- javascript - 创建 POST API END 点将数据保存到两个不同的 API
- python - AWS Lambda python:.so模块:ModuleNotFoundError:在子shell中没有名为'regex._regex'的模块
- rxjs - How can I make an observable emit only latest value and not past values
- google-apps-script - 使用 Google 表格设置备注的按钮
- python - 编写使用 Python 运行时与 PostgreSQL 数据库对话的 Azure 函数应用程序的最佳实践是什么?
- html - 出现垂直滚动条时使用 vw 单位的问题(WordPress 中的全角元素)
- javascript - 如何在 React 中将 URL 参数添加到当前 URL?
- python - 如何在已经开发的 Django 用户表数据库上添加更多表字段