r - 在具有单个预测变量的线性回归模型中,R-squared 和 adj.R-squared 是否应该相同?
问题描述
我已经运行了一个带有单个变量的模型线性回归模型,并且 adj.R-squared 远低于 R-squared。据我所知,adj。R-squared 会因您添加其他变量而受到惩罚。
如果回归中只有一个预测变量,那么差异来自哪里?
解决方案
对于p
预测器
R^2_adj = 1 - (1-R^2)\frac{n-1}{np-1}
所以对于 1:
调整后的 R 平方 = ((R^2(n-1))-1)/(n-2)
推荐阅读
- ruby-on-rails - Sidekiq Worker 缓存未过期
- python - 如何确定一维数组中的相邻元素?
- vim - 插入模式下Command + V粘贴后如何让VIM进入正常模式?
- ubuntu - 致命错误:linux/compiler-gcc9.h:没有这样的文件或目录
- linux - 当我尝试从我的 bash 脚本在后台运行 vim 时出现奇怪的行为
- ios - 使用 Create ML 图像分类器训练模型的问题
- oracle-sqldeveloper - 需要在oracle中没有序列的自动递增选择查询
- azure - 在没有对容器的“写入”权限的情况下,无法从 Azure 存储帐户还原数据库
- google-drive-api - 将文本数据 (210 MB) 从 google drive 加载到 google colab 非常缓慢
- matrix - Gnuplot:制作用矩阵生成的地图的 gif?