查看原文
其他

Sims与安神的论战从未停止,JOE卷入第三次大论战

欢迎投稿(荐稿)计量经济圈,计量相关都行

箱:econometrics666@sina.cn

编辑:@计量经济圈(ID: econometrics666);来源:计量经济学应用研究的可信性革命,《经济研究》2012

下面这篇文章分成三部分,第一部分是关于计量经济学三次大论战,第二部分是关于计量经济学到底是什么,第三部分是关于随机扰动项的重要性。如果不喜欢第一部分的内容,可以直接跳转到到其他感兴趣的部分。

     计量经济学三次大论战

在我国,经过 30 年的发展,计量经济学模型已经成为经济理论研究和实际经济分析一种主流的实证方法。与此同时,人们对于计量经济学模型方法产生了不同的甚至是相反的评价,究其原因部分来自于计量经济学模型方法本身,更多地来自于计量经济学模型的应用研究 (李子奈和齐良书,2010a)。一部分研究者由于不了解计量模型方法具体的应用背景和适用条件,陷入一种滥用和错用的误区,一项实证研究从计量经济模型的设定开始,一直到模型的估计、检验、评价和解释,随意性和错误随处可见。针对这一现象,洪永淼( 2007)、李子奈( 2007,2008 )以及李子奈和齐良书(2010a,2010b)联系我国实际,从计量经济学在现代经济学中的地位、作用和局限性以及其哲学基础、经济学基础、模型设定问题等角度对计量经济学的方法论进行了奠基性的研究。

 

计量经济学作为一门独立的经济学分支学科,其区别于其他相关学科的本质特征是什么? 计量经济学应用研究的科学性和可靠性如何保证? 这些问题引发了国际计量经济学界三次集中的大讨论,一场经验研究的“可信性革命 ”( Angrist and Pischke,2010 )蔚然成风。第一次大讨论始于著名的“凯恩斯—丁伯根之争”( Keynes,1939,1940; Tinbergen,1940 ),凯恩斯认为丁伯根所用的多元回归分析是一种“巫术”,计量经济学作为“统计炼金术 ”的分支还远未成熟到足以成为科学的分支。凯恩斯反对使用概率论,而丁伯根使用的“回归”却未能利用概率论的原理很好地解释估计结果,当时的经济学经验研究陷入困难丛生的境地。最后这场争论以 Haavelmo( 1944)《计量经济学中的概率论方法》一文的发表而告结束,该文为经济学中的概率论思想正名,在概率论的基础上建立起统一的计量经济学基本框架。自此,计量经济学不仅改变了人们关于客观经济世界知识的形成方式,而且逐渐成为经济学主流的经验研究方法

 

1980 年代初,众多学者的反思掀起了有关经验研究可信性问题的第二次大讨论。Sims( 1980 )对当时的大型宏观计量经济模型所施加的外部约束条件的可靠性提出质疑,认为这些不现实的约束条件将导致不可靠的政策分析结论,进而建议使用更少约束条件的 VAR 建模策略。该模型已被研究者和政策制定者所广泛采用,主要用于分析经济如何受到经济政策临时性变化和其他因素的影响,Sims 也因此获得 2011 年诺贝尔经济学奖。Hendry ( 1980 )就计量经济学的应用沦为炼金术问题展开尖锐的批判,提出让经验研究走向科学的一条金科玉律就是“检验、检验、再检验 ”。 Leamer( 1983)一文则指出回归分析中模型假定以及控制变量选择的随意性导致的结果脆弱性,由此提倡应该进行回归模型的敏感性分析。Black( 1982 )以及 Pratt & Schlaifer( 1984 )对应用研究者将回归模型中的相关关系错误推广至因果关系提出批判,同时对两者的区别进行了详细的论述。

 

面对第二次讨论中出现的难题,计量经济学家提出了各种建模思想、估计量以及检验统计量,理论计量进入百花齐放的阶段; 然而,理论计量研究与经验研究之间的裂缝反而扩大了,理论计量越来越复杂,应用计量则在某些领域变得越来越简单( Heckman,2001)。为此,进入新世纪以来,以 Journal ofEconometrics 百期纪念专刊对计量经济学方法论、模型方法发展的总结为开端,以重要学术期刊的专刊为阵地,计量经济学界掀起了对经验研究可信性的第三次大讨论,并形成了模型设定的统计适切性和因果关系的有效识别两大核心议题(注:上一期发布的《计量模型好坏的评价标准,经济研究如是说》是关于第三次大讨论的内容


纵观三次大讨论,可信性革命的核心问题在于实现经济理论、统计学、数学在计量经济学应用研究中的科学结合。第一次大讨论主要关注经济理论与数学的结合问题,解决了计量经济学的概率论基础问题,同时确立了凯恩斯宏观经济理论在模型设定中的导向作用。第二次大讨论突出了数据与模型的结合问题,在宏观实证领域摈弃了模型设定的经济理论导向,确立了数据关系的导向作用。第三次大讨论强调了模型设定的统计适切性问题和因果关系的有效识别问题,本质上是试图实现经济理论导向和数据关系导向的综合,向实现经济理论、统计学、数学的科学结合迈出了坚实的一步。

 

当前,中国计量经济学正处于迈向国际化和规范化的新阶段,面临着与国外先进水平的实质性接轨,这其中的一个关键问题就是提高应用研究的可信性。如何借鉴国际经济学界对于经验研究可信性问题的研究成果应成为我们的着力点之一,这也是我国计量经济学基本理论研究延续和深入的需要。为此,本文首先厘清计量经济学探索客观经济世界过程的本质特征,进而从模型的随机性设定、经济变量之间的因果关系识别以及模型的统计适切性评价等三个方面论述计量经济学应用研究的可信性来源,以期抛砖引玉,达到对计量经济学应用研究的正本清源。

 

计量经济学对客观经济现实的探索过程

 

现代经济学研究建立的基本假设前提是( Hendry,1995 ) :现实经济世界中存在着某种具有规律性的机制,这种机制是由经济主体的生产、交易、消费等行为构成的,并进一步认为经济机制的某些规律性是可以测度的,这种可测的机制部分称为数据生成过程(简称 DGP)。经济学家对于客观经济世界真实 DGP 的认识和探索经历了一场从决定论法则到“无序中的有序 ”的概率论法则的变革,而在这场变革中,计量经济学起着关键作用。计量经济学家将随机性视为客观经济现象的特殊矛盾性,并致力于寻找合适的方法论基础以保证计量经济学应用的可靠性。

 

Haavelmo( 1944)澄清了计量经济学研究对象的特殊矛盾性,认为经济规律的特有性质决定着概率论方法运用的必然性;文中把随机性作为一条规律引入模型,用概率分布及其特征值来描述客观经济现象的变动规律,尤其是引入联合分布来刻画相互依存、同时确定的变量的变动关系,使得随机性设定成为计量模型不可或缺的重要部分;进而在概率论的基础上,利用 20 世纪初统计学的最新成果建立起计量经济学的基本框架。因此,该文被誉为计量经济学的“南十字星座 ”,开启了计量经济学的现代之门( Hoover,2005),Haavelmo 也因此获得 1989 年的诺贝尔经济学奖。此后,计量经济学家对计量模型描述客观经济现象的本质特征有了清晰的认识,本文阐述如下。

 

计量经济学探索客观经济世界的本质特征

 

经济现象(体现为观测数据)是定义于一个完备概率空间( Ω, ,P0)的随机过程Z≡{Zt∶ Ω→ν  ν t= 12}的一个实现,概率测度P0提供了对序列Z的随机行为的完全描述,因此被认为是真实的数据生成机制,即最一般意义上的 DGP正是由于 P0 未知,才产生建模估计和推断问题,如果我们可以得到 Z 的一个实现,就可能从 Z 中推断 P0 因此,计量经济模型建模的首要含义是从现实经济世界到概率空间的映射

 

由于概率空间( Ω, ,P0)过于抽象,并不能为我们提供一个足够灵活的框架用于对随机经济现象的建模,需要将概率空间映射到更灵活的概念———概率模型。从实际角度看,我们只能得到有限序列 Zn = ( Z1 ',…,Zn ') '的一个实现 zn ,即样本容量为 n 的抽样。生成容量为 n 的样本的随机过程可由其分布完全刻画。进一步定义分布函数和密度函数的参数化形式为 ΦF={F(z; θ),θ Θ,z νn}和 Φf={f(z; θ),θ Θ,z νn},称之为参数化概率模型,其中 θ 为未知参数向量。

 

随机过程最重要的特性是统计特性,它刻画了随机过程的本质,因而可以从偶然性中揭示出必然性。多维联合分布(密度)函数是随机过程统计特性最完善的描述。随机过程{ Zt }的分布(密度) 函数是既包括变量关系又包括样本点关系的高维联合分布函数,要从中得出具体可用的模型,往往需要对向量 Zt (假定 v × 1 维)进行分块 Zt = ( Xt ' ,Yt ') '以及一系列的约化。例如,把对联合分布的建模约化为对条件分布建模,进而约化为对条件期望建模,这就是总体回归模型;其中 Yt 是 l×1 维的被解释变量,Xt是( v - l) × 1 维的解释变量。计量经济模型就是使用经济和统计假定从联合分布(密度)中识别出经济定量关系( White,1994; Reis and Wolak,2007)。

 

综合上述,计量经济学对客观经济世界的探索,蕴含着从“现实经济世界到概率空间的映射———概率空间到概率模型的映射———概率模型到计量经济模型的映射 ”这一过程。把随机因素规律化,这是计量模型区别于其他经济模型的本质特征: 一方面可以体现人类行为与经济活动内在的随机性,另一方面也是我们控制未知因素影响的重要途径。因而计量模型的设定包含随机扰动项及其概率分布的设定,它使得模型能最大限度地逼近客观经济现实。

 

揭示变量之间的经济关系是建立计量经济模型的主要目的,需要基于观测到的信息资料推断结果问题在于,我们所观测到的数据,是从某个可能的假设或原因的集合中所导致的结果,也就是说,数据和假设之间缺乏一一对应的关系,由此产生的新知识 ( 推断结论 ) 是一种带有不确定性的知识这种精确性的缺乏成为归纳推理系统化的最大障碍20 世纪初,统计学家提出的一种有关新知识产生的方式有效地解决了这个问题,Rao( 2004)将其总结为以下的逻辑方程:

 

不确定的知识  + 所含不确定性度量的知识  = 有用的知识

 

在形成新的具有不确定性的知识时,对其存在错误的可能性进行度量是一种理性选择,由这种逻辑过程产生的知识才能够用于解释现实并指导实践。计量经济分析中,无论是参数估计还是假设检验,都是基于一个样本得到的结论,但处理方式遵循了上述逻辑方程所强调的有关不确定知识的产生方式,这种处理最终通过分布来实现。因此,计量经济模型只有包含随机性设定,才能在经济关系的检验中包含对自身置信度的有效度量,从而实现对客观经济现象随机性的有效驾驭。

 

探索过程的多样性与可靠性

 

经济规律具有相当局限的持续不变性,或者说经济规律的不变性是有条件的,只有在一定时空条件下,经济运行规律即真实 DGP 才是唯一的。然而,现代经济生活极大的复杂性,使得我们发现并建立真实模型之求往往成为奢望。从未知的真实 DGP 到计量经济模型,是一个探索过程,当然也就允许研究者多方尝试,从而最后的模型设定呈现多样性。

 

但是,这种探索性和多样性并不意味着模型设定的随意性。只有在一定建模准则下建立的计量经济模型,才能成为对真实 DGP 的一个有用的、可靠的近似。我们认为,经验研究的可信性必须依赖以下三个重要来源: 其一,扰动项的概率结构不仅体现于模型设定,而且主宰了参数估计、假设检验等经济计量分析的主要环节,其丰富的经济和统计含义应该得到重视。其二,每项实证研究都有特定的研究目的,需要通过模型设定实现对关注效应的有效识别和可靠推断 ; 因果关系推断作为计量经济分析的重要目标,其有效识别是经验研究的核心问题。其三,模型设定是统计推断的基础,错误的设定可以导致错误的推断;模型统计适切性是评价模型对真实 DGP 概率结构近似程度的重要标准。

 

扰动项的含义与随机性设定

 

对计量经济模型的不可观测成分尤其是随机扰动概率结构的研究,包括相应的估计和检验是理论计量的主要研究对象。对应用研究而言,它们是计量模型描述客观经济现象不可或缺的一部分,也是计量经济模型“计量含义”的集中体现。未能有效地驾驭随机设定对客观经济现象的描述功能,某种程度上也限制了对计量经济模型的创新性运用,计量经济学发展过程中的多次创新和重大突破就发端于如何更好地运用随机扰动项分布来描述客观经济现象。

 

Woodridge( 2003)认为,对于扰动项的处理可能是任何计量分析中最重要的内容。忽视其存在,或仅作为一种摆设,计量经济模型设定就失去一个重要的可靠性来源。应用研究中却存在诸多误区,本文对此进行了梳理。

 

第一,将扰动项视为一种符号,忽略其重要含义。

 

计量经济模型的设定包含着确定性设定与随机性设定两部分。以最常见的回归模型为例,确定性设定刻画了模型中的观测变量、参数以及函数形式,随机性设定描述了扰动项的概率分布以及与解释变量的关系。一般而言,确定性设定更多体现经济意义,随机设定更多体现统计意义 ,两者是相依共生的。一方面,无论确定性设定如何体现经济意义上的合理性,模型推断的可靠性仍然依赖于随机性设定的合理性; 另一方面,确定性设定部分如果不合理,也会影响随机性设定的合理性,比如遗漏重要解释变量或者函数形式错误设定,可能导致随机扰动项与解释变量相关而破坏外生性假定,或者导致扰动项呈现异方差等复杂变化,从而对随机性设定部分的可靠性造成严重影响。

 

而且,大多数计量经济学模型方法在研究条件分布的某一属性 ( 例如条件均值 ) 时,往往会对其他属性(如条件方差) 做一些辅助性的限制假设,忽略扰动项,这些假设的合理性就得不到讨论与研究。例如,在研究市场有效性时,常用的混合 Q 检验统计量只有在条件同方差下才服从渐近卡方分布,这一结论在条件异方差下并不成立,许多国内研究由于忽视这一点 ( 如波动集聚性的存在),导致错误推翻市场有效性(洪永淼,2007)。

 

还应指出的是,面板数据模型目前虽大量应用,但截面相关问题尚未引起重视。面板数据中截面相关是普遍存在的,其设定既有丰富的经济含义,又是统计推断结果可靠性的重要保证。以非平稳面板数据的单位根检验为例,广泛应用的 LLC 检验、IPS 检验都假定 ADF 回归中不同个体的扰动项相互独立,当存在截面相关时,这些统计量就不再收敛于原来的分布,产生严重的水平扭曲问题;即使是一般的面板回归模型,截面相关也将影响估计量的有效性甚至是一致性( Pesaran, 2006)。

 

第二,检验过程忽略有关扰动项及 DGP 的设定,主观选择符合所需要的结果。

 

很多统计量是基于有关扰动项及 DGP 的某种设定推导出来的,如单位根检验、Granger 因果关系检验以及协整检验对于扰动项及 DGP 设定有很强的依赖性。这些检验几乎是我国目前宏观经济与金融实证研究应用最广的方法,同时也是错误集中的领域。

 

单位根检验的 DF、ADF 方法的临界值选择依赖于模型是否存在截距项与趋势项。很多研究者完全按自己研究的“需要 ”,随意地选择模型设定,导致模型设定过程成为一个黑箱。根据 Enders( 2004)给出的严格检验步骤,应该对截距项、趋势项的系数进行反复的检验,以确保得到数据支持的模型设定。原始的 Granger 因果检验没有规定变量必须平稳但事实上隐含这一假定,很多研究都将此检验应用于非平稳时序,后续的研究已经表明,使用非平稳时间序列时,该统计量的渐近分布不再是标准分布。周建和李子奈( 2004)的蒙特卡罗模拟显示,序列的不平稳性是造成虚假 Granger 因果关系最主要的因素之一。

 

在非平稳时序的协整检验中这一问题更是突出。Johansen ( 1988 )、Johansen & Juselius( 1990 )提出了协整关系的 MLE 估计和检验方法,其检验结果对 DGP 的设定具有很强的依赖性。Eviews软件就给出了 5 种 DGP 下协整关系的可能结果。目前国内几乎没有应用研究进行严格的 DGP 识别检验,而是根据某些主观因素在各种 DGP 下选择检验结果。这种做法抹煞研究对象真实的总体属性,扭曲了真实的协整关系,其检验结果可能是错误的。

 

第三,忽略不同数据类型的分布特性,想当然地推广统计量。

 

忽视检验统计量分布成立的前提,随意扩展检验的适用范围,想当然地将已有的检验统计量直接推广到不同类型的数据结构,也是造成研究结论不可靠的原因。例如,在面板协整检验中,有些研究原封不动地移植时间序列下的 EG 两步法。时间序列仅有时间维度,非平稳时序统计量的概率基础是随机泛函的极限定理,在此基础上产生了单位根与协整理论,其中由基于残差的 EG 两步法构建的协整检验统计量收敛于非标准分布。面板数据同时包括时间维度 T 和截面维度 n, Pedroni( 1999)和 Kao( 1999)基于残差的协整检验统计量并非时间序列 EG 两步法的直接推广,而是序贯收敛于标准正态分布,且要经过与真实 DGP 有关的参数调整。蒙特卡罗模拟显示,这种错误推广存在过度拒绝原假设的问题,此时面板协整就很容易成为一种普遍关系了,结论是不可信的。

 

第四,缺乏对检验的名义水平和实际拒绝概率的甄别。

 

在扰动项是正态分布的严格假定下,可以推导某些检验统计量原假设下的有限样本分布,对应的检验称为精确检验。更多的情形是我们只能得到统计量在原假设下的渐近分布,相应的检验称为大样本检验或者渐近检验; 一些复杂检验统计量甚至是服从非标准分布,必须通过模拟获得其临界值。渐近检验用样本容量趋于无穷时的分布函数来近似表示统计量有限样本的统计特性,计算出的 P 值都是渐近值,可能存在过度拒绝或拒绝不足的水平扭曲问题。例如,GMM 框架下的 Hansen-J 检验与 MLE 框架下的 IM 检验,在有限样本下就存在明显的过度拒绝问题;又如面板协整检验,其极限分布是时间维度 T 和截面维度 n 趋向无穷的结果,大部分检验统计量的极限分布建立在序贯收敛或联合收敛的极限定理( Phillips and Moon,1999 )之上,联合收敛的推导过程还往往有n、T 比率的假定。这将给有限样本下统计量的检验水平和功效造成影响,使得统计量的应用受到 n、T 长度的限制,有些甚至不可使用(胡毅等,2010)。在国外的优秀学术期刊中,对检验的名义水平和实际拒绝概率进行区别和处理,已经成为一项经验研究可靠性的重要体现。我国大部分的宏观经济时序数据时间长度都较短,统计量分布的绝大多数已知结论又只是渐近性质,但检验统计量的有限样本适用性问题却还未受到足够重视。

 

计量经济圈是中国计量第一大社区,我们致力于推动中国计量理论和实证技能的提升,圈子以海内外高校研究生和教师为主。计量经济圈六多精神:计量资料多,社会科学数据多,科研牛人多,名校人物多,热情互助多,前沿趋势多。如果你热爱计量并希望长见识,那欢迎你加入到咱们这个大家庭戳这里,要不然你只能去其他那些Open access圈子了。注意:进去之后一定要看小鹅社群“群公告”,不然接收不了群息,也不知道怎么进入咱们的微信群和计量论坛。


帮点击一下下面的小广告,谢谢支持!



: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存