python - 特征选择和低 Pearson's R
问题描述
我正在尝试进行特征选择过程,因为 df 中有 +100 列。
当输入'n_features_to_select=1'时,RFE 建议特征 A作为最佳特征。
问题是y和特征 A之间的 Pearson 的 R仅为0.1,这似乎太低无法解释 y。但是,仅特征 A与整个特征之间的预测分数几乎相似,这意味着特征 A 可以成为一个好的模型。
那么,特征选择和 Pearson's R 之间有什么关系吗?高 Pearson's R 不能保证应该选择该功能吗?
解决方案
推荐阅读
- android - 试图将 SavedStateHandle.getLiveData() 公开为 MutableStateFlow,但 UI 线程冻结
- python - 迁移到 tf.keras:lambdas 如何编译?
- ms-access - 从 MS Access 表单中的表中获取文本框中的值
- excel - 打开文本文件并检查它是否已被编辑
- deezer - 如何获取 Deezer 用户的完整跟踪历史记录?
- java - Apache Pig:包中最常见的值
- node.js - 为什么 fastify-cli 生成的应用程序和文档中的示例如此不同?
- javascript - For循环使用两个变量?
- proxy - 代理链无法连接
- android - firebase crashlytics 集成不起作用