machine-learning - gamma和epsilon在KL散度计算中的作用是什么?
问题描述
我想知道是否有人可以向我解释为什么可以使用 gamma 和 epsilon 来计算两个文档之间的 KL 散度?他们的角色是什么?我的数学不太好,所以如果有人可以用简单的术语向我解释,那将非常有帮助。
感谢您的帮助!
解决方案
我想您指的是论文Using Kullback-Leibler Distance for Text Categorization中定义的 gamma 和 epsilon 值。
epsilon
是不在文档中的术语的概率。将其设置为较小的值而不是 0,以避免距离无限。gamma
是要考虑的归一化系数epsilon
,因此类别中项的概率满足概率的属性(总和为 1)。
推荐阅读
- php - 如何从存储过程中获取结果,过程运行良好但 php 返回 null
- javascript - 为什么分号会影响 es6 中的对象初始化?
- python - 使用“re.findall”拆分字符串时出错
- python - Mac 上的 Tensorflow 性能和视频对象检测
- c++ - 如何使用 C++ 从 afxdb.h 更改 CDatabase 对象的密码?
- javascript - 在单选按钮上单击更改 javascript 中表单元素的标签
- sql - 如何在语句中编写 case 以查看 2 个值的总和是否相等?
- oracle - 顶点和adf之间的区别
- java - 如何将文本文件转换为数组对象?爪哇
- spring - HttpClientErrorException$BadRequest: 400 null with RestTemplate 2.1.4.RELEASE