machine-learning - 使用提早停止时对助推轮数施加限制?
问题描述
在提升树算法(如 xgboost 或 lightgbm)的超参数优化期间,是否可以在使用提前停止时直接控制提升轮数(估计器/树)的最小(而不仅仅是最大)数量?这种需求的动机是观察到在太少轮次后停止训练的模型始终欠拟合(其指标明显低于往往具有更多增强轮次的最先进模型)。
我知道的唯一解决方案是间接解决方案:调整链接的超参数 - 学习率(降低其在搜索空间中的上限)。当设置得太高时,学习率会导致模型拟合不足,从而导致训练停止得太快,即提升轮数太少。
解决方案
您是否尝试过改变设置停止轮数的参数?根据使用的数据、轮次和学习率,我看到这个参数设置为低至 5 和高至 500。
如果您提供一些示例数据和代码,可能会更容易提出建议。
推荐阅读
- python-3.x - 我无法理解该名称错误的原因
- php - 如何在不影响 PHP 中的第一个函数的情况下执行第二个函数?
- python-3.x - 将可变数量的 args 传递给 python 脚本
- sql-server - 什么是 Microsoft.SqlServer.Dac.dll 和用途?
- php - 如何从同一列中分离数据
- java - 如何获取服务器对在 Android Studio (Java) 中调用请求的方法的响应
- python - 关键 - 在 Travis CI 中运行时出错| pytest
- jquery - 如何使用jquery从json文件中获取每个值的计数
- java - 这
groupByKey(...) 中的类在其成员中有一个 Map。groupByKey 操作因“不可比较”问题而失败 - sql-server - 无法为 C# 应用程序的远程桌面创建连接字符串