查看原文
其他

R square,真的很重要吗?

秋枫澜 不止点滴 2020-02-10

经常听到初次做实证论文的小伙伴的抱怨:为什么我的这么小?这么小的是不是表明我的模型拟合没有意义?其实啊,除了他们自己,真的没多少人太在意


为什么大家喜欢用作为判断模型拟合好坏的标准呢?这就要先讲一讲什么是拟合优度(goodness of fit)。


对于线性模型:

运用经济数据和计量方法对其进行回归后可以得到:

其中,为残差,拟合值现在我们想知道的是,解释变量x对被解释变量y的解释程度如何?或者说,我们得到的这个线性回归模型在多大程度上能够解释y的变动?这个时候,就需要一个标准来衡量回归模型的拟合程度(y的实际观测值与拟合值之间的接近程度),为此,拟合优度(goodness of fit)这个概念就出现了。


怎么来度量拟合优度呢?最为普遍和用的最多的可能就是判定系数(coefficient of determination)了,判定系数的小名就叫注意,这里只是说是大家通常用的度量拟合优度的指标,并不是唯一的标准。其实,AIC准则和BIC准则也是常用的模型选择标准。


既然拟合优度考察的主要是回归模型对y的变动的解释程度,那就首先来看看y的变动。样本中被解释变量y有不同的取值,将特定的观测值与均值的差异定义为离差,并将这些离差的平方和称作总平方和SST(sum of squares total),表示被解释变量y上的总变异

由于,可以将SST分解成下面的式子:

根据正交假定:(在满足了OLS的假设后推导出估计系数的过程中很容易发现这一关系是成立的,不信可以自己推导一下),很显然的,

从而SST的表达式可以简化为:

对于上式,我们将叫做回归平方和SSR(sumof squares regression),SSR表示总变异中被回归方程解释了的那部分变异;我们将

叫做残差平方和SSE(sum of squares error),SSE表示总变异中仍未被解释的那部分变异。从而SST=SSR+SSE,也就是总变异=被解释的变异+未被解释的变异。到了这一步,我们就可以定义判定系数,也就是了:

也就是说,表示的是被解释的变异占总变异的比例。从这一点出发,越大,表示未被解释的变异越小,模型拟合得越好。嗯,是的,这一逻辑并没有毛病。


现在问一个看上去比较白痴的问题:虽然越大说明回归模型的解释力越大,但一定意味着越小从而回归模型的解释力越小么,或者回归无效么?看几个例子:

1.举世有名的资本资产定价模型回归(CAPM)的好像并不超过0.3,但是没人会说这个模型不好;

2.如果在《经济研究》上随便下载几篇文章,会发现低(可能都不到0.1)出现的几率非常高,若以论好坏,这些文章肯定都是要挂掉的。

这些事实说明,的份量似乎并没有大家想象的那么重,较低的也不是不能接受。这是为什么呢?

首先,就像前面说的,只是衡量模型拟合优劣的标准之一,并非唯一且绝对的标准。


其次,并没有多大的横向比较意义,也就是说,模型10.8与模型20.2并不能直接比较。只有当两个模型的被解释变量相同、样本数据相同的情况下,我们说越高的模型效果越好。


再次,对于经济及其他人文社科,往往都比较低。经济关系错误复杂,影响被解释变量y的因素成千上万,若在10000个因素里找到了10个可观测的因素能够解释10%的变异(),余下的90%由其他9990个因素共同解释,从而其他每个影响因素只平均解释0.9/9900的变异,这时可观测的10个因素即便只能够解释10%的变异也是有很大意义的。


再次的再次,不同类型的数据下有很大的差异。对于时间序列数据,能够轻易实现0.80.9乃至更高的,而对于横截面和面板数据,往往很难太高。


最后,本身是可以“操纵”的,从而部分高可能并不具备经济意义。因为是关于解释变量x的一个非减函数(可以严格证明),也就是说,随着模型中加入越来越多的变量(这些变量可能有意义,也可能没意义),会倾向于变得越来越大。


总结一下,如今已经成为实证论文几乎是一定会报告的内容,但是我们并不需要对其投入过多关注,小的又何妨?







    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存