首页 > 解决方案 > XGBoost 超参数调优

问题描述

我一直在尝试调整 xgboost 模型的超参数,但通过 xgb 的 cv 函数发现,模型最大化性能所需的 n_estimators 超过 7000 个 n_estimators,学习率为 0.6!

这有点荒谬,因为它需要永远执行其余的超参数调整以获得最佳模型。下面的链接是我目前正在关注的指南。任何人都可以就如何减少 n_estimator 的数量或如何在没有如此高的 n_estimator 值的情况下进行调整提供建议吗?谢谢!

https://www.analyticsvidhya.com/blog/2016/03/complete-guide-parameter-tuning-xgboost-with-codes-python/#comment-110796

标签: machine-learningxgboost

解决方案


推荐阅读