machine-learning - 梯度提升树如何计算分类错误?
问题描述
我了解当我们在前一个模型的残差上构建下一个模型时,梯度提升如何用于回归 - 如果我们使用例如线性回归,那么它将是残差作为下一个模型的目标,然后将所有模型求和最终变得更瘦
但是这在梯度提升分类树中是如何完成的呢?假设我们有一个结果为 0/1 的二元分类模型——下一个要训练的模型的残差是多少?它是如何计算的,因为它不会像线性回归那样是 y 减去 y 预测的。
我真的被这个困住了!一个二叉分类树的错误是它错误分类的错误——那么下一个模型的目标仅仅是错误分类的点吗?
解决方案
二元分类可以提出为预测概率的回归问题,例如 P(y=1 | x),其中 y 是类标签。您可以使用对数损失(逻辑损失)而不是平方损失来实现这一点。
推荐阅读
- typescript - 如何使用 typed-rest-client 设置请求标头?
- python - 如果未调用 thread.stop() 或 thread.join() 方法,python 中的线程何时死亡?
- browser-cache - “使用有效的缓存策略服务静态资产” - 最佳实践是多少天?
- java - 查询多个 SQL 表的特定列值并复制/更新到不同模式中的表
- c# - 从实现接口的每个类中调用方法
- jquery - 再次单击 div 时如何隐藏某些内容(已打开)
- css - 将光标更改为自定义文本
- android - 工作意向服务是否总是在同一个后台线程中启动?
- angular - Map 和 Filter 适用于两个数组元素,但在看似相同的第三个元素上失败
- java - 当两个表都具有复合主键时,休眠连接两个不相关的表