查看原文
其他

模型的拟合程度

夏雨骄阳 SPSS学堂 2022-04-26

作者:夏雨骄阳 审阅:阿X 封面:自己想吧


对于回归模型效果的判断指标经过了几个过程,从SSE到R-square再到Ajusted R-square, 是一个完善的过程。

SSE(误差平方和):The sum of squares due to error

R-square(决定系数):Coefficient of determination

Adjusted R-square(校正决定系数):Degree-of-freedom adjusted coefficient of determination


一、SSE(误差平方和)

计算公式如下:

     

·         同样的数据集的情况下,SSE越小,误差越小,模型效果越好

·         缺点: SSE数值大小本身没有意义,随着样本增加,SSE必然增加,也就是说,不同的数据集的情况下,SSE比较没有意义


二、R-square(决定系数)

   

越接近1,表明方程的变量对y的解释能力越强,这个模型对数据拟合的也较好。越接近0,表明模型拟合的越差。经验值:>0.4, 拟合效果好。

·         数学理解: 分母理解为原始数据的离散程度,分子为预测数据和原始数据的误差,二者相除可以消除原始数据离散程度的影响

·         其实“决定系数”是通过数据的变化来表征一个拟合的好坏

·         理论上取值范围(-∞,1], 正常取值范围为[0 1] ------实际操作中通常会选择拟合较好的曲线计算R²,因此很少出现-∞

·         缺点: 数据集的样本越大,R²越大,因此,不同数据集的模型结果比较会有一定的误差


三、Adjusted R-Square (校正决定系数)

      

n为样本数量,p为特征数量。

校正决定系数,对两个具有不同个数的自变量的回归方程进行比较时,还必须考虑方程所包含的自变量个数的影响,为此提出,所谓“最优”回归方程是指校正的决定系数最大者。

    ·         增加了一个解释变量以后,R2只会增大而不会减小,故引入调整R2

    ·         消除了样本数量和特征数量的影响


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存