machine-learning - 在 bagging 集成学习的情况下,当 max_sample=1.0 时, bootstrap=True 有什么意义吗?
问题描述
在 bagging 集成技术中,如果我使用n_estimator=500
、max_sample=1.0
和bootstrap=True
,那么它是否不等于n_estimator=500
、 和bootstrap=False
,因为在这两种情况下,我们的预测器只会提供 500 个训练实例的一个样本?假设训练实例数=500。
解决方案
不,它不等同。
当您指定 时bootstrap=False
,您基本上是在说每个弱估计器都应该使用训练集中的每个数据点只训练一次。
当您指定 时bootstrap=True
,您将使用替换进行绘制,这意味着某些数据点可能会被多次使用,而其他数据点则不会。max_samples
只是一种确定可以引导的数据部分的方法。
推荐阅读
- sql - 使用 LEFT JOIN 和 ON 语句仅选择最接近的值
- c# - 如何使统一的 Random.Range() 更加随机?
- vim - Vim 光标轨迹
- logging - 哪些层应该记录异常?
- python - Pyplot一一改变颜色不起作用
- java - Datastax Kafka 连接器无法解析 Json 主题
- stripe-payments - 收到错误“无效的字符串:必须提供假名变体。” 在日本国家的条带连接账户地址
- android - 通知/提示用户有新版本可用
- android - Firebase 的 Crashlytics 迁移破坏了 Fabric 的 Twitter 功能
- keras - SVM Scikit-learn - 数据增强可能吗?