作为统计推断的核心内容,除了估计未知参数以外,对参数的假设检验是实证分析中的一个重要方面。对模型进行各种检验的目的是,改善模型及其设定以尽量保证基本假设和估计方法适合于分析数据,同时也是有关理论有效性的验证。
假设检验的理论依据是“小概率事件原理”,它的一般思路是:第一,建立两个相对的假设(零假设和备择假设);第二,在零假设条件下,寻求用于检验的统计量及其分布;第三,得出拒绝或接受零假设的判别规则。参数显著性检验的具体步骤是:已知总体的分布
F
(
x
,
θ
),其中
θ
是未知参数。总体真实分布完全由未知参数
θ
的取值所决定。对
θ
提出某种假设H
0
:
θ
=
θ
0(H
1
:
θ
≠
θ
0
或
θ >
θ
0
,
θ <
θ
0
等),从总体中抽取一个容量为
n
的样本,确定一个统计量及其分布,决定一个拒绝域
W
,使得
P
θ
0
(
W
) =
α
,或者对样本观测数据
X
,
≤
α
。
α
即是显著性水平。
计量经济学中对已经估计出参数的多元线性回归模型的检验,除了用于判断假定条件是否满足以外,还主要用于对所估计的模型拟合优度的检验、对整个回归方程显著性的检验,以及对模型中各个参数显著性的检验,包括传统假设检验中的 z 检验、 t 检验、 χ 2 检验、 F 检验等方法。
在一元简单线性回归模型中,我们用可决系数 R 2 来衡量估计的模型对观测值的拟合程度。在多元线性回归模型中,我们也需要讨论所估计的模型对观测值的拟合程度。
1.多重可决系数
与简单线性回归类似,为了说明多元线性回归线对样本观测值的拟合情况,可以考察在Y的总变差中由多个解释变量做出了解释的那部分变差的比重,即“回归平方和”与“总离差平方和”的比值。在多元回归中这一比值称为多重可决系数,用 R 2 表示。
多元线性回归中Y的变差分解式为
其中,总离差平方和 TSS 反映了被解释变量观测值总变差的大小;回归平方和 ESS 反映了被解释变量回归估计值总变差的大小,它是被解释变量观测值总变差中由多个解释变量做出解释的那部分变差;残差平方和 RSS 反映了被解释变量观测值与估计值之间的变差,是被解释变量观测值总变差中未被列入模型的解释变量解释的那部分变差。显然,回归平方和 ESS 越大,残差平方和 RSS 就越小,从而被解释变量观测值总变差中能由解释变量解释的那部分变差就越大,模型对观测数据的拟合程度就越高。因此我们定义多重可决系数为
多重可决系数 R 2 是介于 0 和 1 之间的一个数, R 2 越接近 1,模型对数据的拟合程度就越好。
2.修正的可决系数
多重可决系数有一个重要性质,即它是模型中解释变量个数的不减函数,也就是说,在样本容量不变时,随着模型中解释变量的增加,总离差平方和TSS不会改变,而解释了的平方和ESS可能增大,多重可决系数 R 2 的值也会变大。当被解释变量相同而解释变量个数不同时,随着模型中解释变量的增加,哪怕增加的解释变量对被解释变量没有直接影响,多重可决系数一般也会变大,这时的可决系数 R 2 的值就不太准确,为此应予修正。可决系数只涉及各种变差,没有考虑其自由度(自由度是指统计量中可自由变化的样本观测个数,它等于所用样本观测值的个数减去对观测值约束的个数)。如果用自由度去校正所计算的变差,可以纠正解释变量个数不同引起的 R 2 的值的不准确性,使可决系数更真实可信。由于在样本容量一定的情况下,增加解释变量必定使得待估参数的个数增加,从而会损失自由度。因此,可以用自由度去修正多重可决系数 R 2 中的残差平方和与回归平方和,从而引入修正的可决系数. R 2 (adjusted coefficient of determination),其计算公式为
修正可决系数与多重可决系数之间有如下关系:
由式(2.8)可以看出,当
k
>1 时,
,这意味着
小于
R
2
,且随着解释变量个数的增加,会越来越小。另外需要注意,可决系数
R
2
必定非负,但按式(2.8)计算的修正可决系数
则有可能为负值,这时可认为
或者认为拟合效果很不好。
由于多元线性回归模型包含多个解释变量,它们同被解释变量之间是否存在显著的线性关系呢?还需进一步做出判断。也就是要对模型中被解释变量与所有解释变量之间的线性关系在总体上是否显著做出推断。
对回归模型整体显著性的检验,所检验假设的形式为
H 0 : β 2 = β 3 = …= β k = 0
H 1 : β j ( j = 2,3,…, k )不全为零
这种检验是在方差分析的基础上利用 F 检验进行的。如前所述,被解释变量 Y 观测值的总变差有式(2.5)的分解形式,将自由度考虑进去进行方差分析,可得方差分析表如表 2.2 所示。
表2.2 方差分析表
可以证明,在H 0 成立的条件下,统计量
即统计量 F 服从自由度为 k -1 和 n - k 的 F 分布。
给定显著性水平 α ,在 F 分布表中查出自由度为 k -1 和 n - k 的临界值 F α ( k - 1, n - k ) ,将样本观测值代入式(2.9)计算 F 值,然后将 F 值与临界值 F α ( k - 1, n - k )比较。若F> F α ( k - 1, n - k ) ,则拒绝原假设H 0 : β 2 = β 3 = …= β k = 0,说明回归方程显著,即列入模型的各个解释变量联合起来对被解释变量有显著影响;若F< F α ( k - 1, n - k ) ,则不能拒绝原假设H 0 : β 2 = β 3 = …= β k = 0,说明回归方程不显著,即列入模型的各个解释变量联合起来对被解释变量的影响不显著。
F 检验与可决系数有密切联系。事实上, F 检验与拟合优度检验都是在把总变差TSS分解为回归平方和ESS与残差平方和RSS的基础上,构造统计量进行的检验,区别在于前者考虑了自由度,后者未考虑自由度。一般来说,模型对观测值的拟合程度越高,模型总体线性关系的显著性就越强。 F 统计量与可决系数 R 2 之间有如下关系:
可以看出,伴随着可决系数 R 2 和修正可决系数. R 2 的增加, F统计量的值将不断增加。当 R 2 = 0 时, F = 0;当 R 2 越大时, F 值也越大;当 R 2 = 1 时, F →∞ 。这说明两者之间具有一致性,对H 0 : β 1 = β 2 = …= β K = 0 的检验,实际等价于对 R 2 = 0 的检验。也就是说,对方程联合显著性检验的 F 检验,实际上也是对 R 2 的显著性检验。区别在于,可决系数和修正可决系数只能提供对拟合优度的度量,它们的值究竟要达到多大才算模型通过了检验呢?这一点并没有给出确定的界限。而 F 检验则不同,它可以在给定显著性水平下,给出统计意义上严格的结论。
多元线性回归分析的目的,不仅仅是获得较高拟合优度的模型,也不仅仅是要寻求方程整体的显著性,还要对各个总体回归参数做出有意义的估计。因为方程的整体线性关系显著并不一定表示每个解释变量对被解释变量的影响都是显著的。因此,还必须分别对每个解释变量进行显著性检验。多元回归分析中对各个回归系数的显著性检验,目的在于分别检验当其他解释变量不变时,该回归系数对应的解释变量是否对被解释变量有显著影响。这就是t检验,其方法如下:
由OLS参数估计量的性质已知,在古典假定下,回归系数的估计量服从如下正态分布
其标准化随机变量服从标准正态分布
已知
,而
σ
2
未知,故
也未知。但正如前面已经讨论过的,可以用
代替
σ
2
对
做标准化变换,此时可以证明所构造的统计量服从自由度为
n
-
k
的t分布,即
这样,就可以用t统计量对各个回归参数做显著性检验。具体过程如下:
1.提出检验假设
H 0 : β j = 0( j = 1,2,…, k )
H 1 : β j ≠ 0( j = 1,2,…, k )
2.计算统计量
在H 0 成立的条件下,式(2.12)变为
根据样本观测值计算t统计量的值
3.检验
给定显著性水平 α ,查自由度为 n - k 的t分布表,得临界值 t α/ 2 ( n - k ) 。
若
,即
t
≤
- t
α/
2
(
n - k
)或
t
≥
t
α/
2
(
n - k
) ,就拒绝H
0
,不拒绝H
1
,说明在其他解释变量不变的情况下,解释变量
X
j
对被解释变量Y的影响是显著的。
若
,即
- t
α/
2
(
n - k
)
< t < t
α/
2
(
n - k
) ,就不能拒绝H
0
,说明在其他解释变量不变的情况下,解释变量
X
j
对被解释变量
Y
的影响不显著。
从 t 分布表可以看出,在给定显著性水平 α = 0.05 的情况下,当自由度大于 10 时,临界值 t α/ 2 基本上都接近 2。因此,当参数估计的 t 统计量的绝对值超过 2 时,我们可以粗略做出判断,在显著性水平 0.05 下可拒绝原假设H 0 ,认为相应解释变量对被解释变量的影响是显著的,此时犯错误的概率不超过0.05。如果系数估计的 t 统计量的绝对值远大于 2,则犯错误的概率更小。
【例 2.2】例 2.1 中, GDP的 t = 13.23, CPI的 t = -2.93,均为显著。R 2 = 0.996 4, F = 2 325.43,模型整体显著。可规范表达为
= 76.946 1 + 2.708 9GDP
i
- 0.212 8CPI
i
t = (2.56)(13.23)(-2.93)
R 2 = 0.996 4,F = 2 325.43,n = 20
多元回归模型 Y = β 1 + β 2 X 2 + …+ β k X k + u 的统计检验通常包括以下三种情况:①单个系数的显著性检验;②若干个回归系数的联合检验;③回归系数线性组合的检验。例如,考虑下面这些典型假设。
假设 1 H 0 : β i = 0。即回归元 X i 对 Y 没有影响,这是最常见的参数显著性检验。
假设 2 H 0 : β i = β i 0 。 β i 0 是某一具体值。例如 β i 表示价格弹性,我们希望它是-1。
假设 3 H 0 : β 2 + β 3 = 1。这里的 β 表示生产函数中资本和劳动的弹性,此时检验是否规模报酬不变。
假设 4 H 0 : β 3 = β 4 或 β 3 -β 4 = 0。即检验 X 3 和 X 4 的系数是否相同。
假设 5 H 0 : β 2 = … β k = 0。即检验全部回归元都对 Y 没有影响。
假设 6 H 0 : β II = 0。这里的含义是把 β 向量分为两个子向量 β I 和 β II ,分别含有 k 1 和 k 2 个元素。检验H 0 : β II = 0 就是检验某一些回归元 X II ( X 的一部分)对Y没有影响。
诸如以上的情形都可归于一般的线性框架:
Rβ = r [注意:这里 β = ( β 1 ,…, β k )']
其中 R 是由已知常数构成的 q × k 矩阵( q < k ), r 是各元素为常数(一般是 0或 1)的 q × 1 矩阵。于是,对于上述情形,具体有:
① R = (0…1…0), r = 0.( q = 1)
② R = (0…1…0), r = β i 0 .( q = 1)
③ R = (0,1,1,0…0), r = 1.( q = 1)
④ R = (0,0,1,-1,…0), r = 0.( q = 1)
⑤ R = (0 I k- 1 ), r = 0. ( q = k - 1)
⑥ R = (0 I k 2), r = 0. ( q = k 2 )
所以,上述问题的统一假设是
H 0 : Rβ - r = 0
为了检验这个假设,应先估计出
,计算
,若其值较“小”(接近于 0),则不应否定原假设;而如果其值较大,那么应对
H
0
提出怀疑。为此我们先考察
的分布。
对于古典假定条件下的OLS估计量
,我们知道
。
那么,
=
=
=
σ
2
R
(
X'X
)
-1
R'
所以,
~ N
[
Rβ
,
σ
2
R
(
X'X
)
-1
R'
]
~ N
[
Rβ - r
,
σ
2
R
(
X'X
)
-1
R'
]
于是,在 H 0 : Rβ - r = 0 成立的条件下,
~ N
(0,
σ
2
R
(
X'X
)
-1
R'
)
根据有关的数理统计知识可知:
此外,还可以证明残差平方和的分布为
因此,由上述两式,得到在H 0 下的检验统计量:
[注意:
于是,检验的程序是,如果算出的 F 值大于某个事先选定的临界值,则拒绝H 0 。具体描述如下:
假设 1 H 0 : β i = 0
此时
为
。
R
(
X'X
)
-1
R'
为
c
ii
。即
K
阶对称方阵(
X'X
)
-1
主对角线上的第
i
个元素。因此:
F =
=
~ F
(1,
n - k
)
取平方根
t =
~ t
(
n -
k
) ,这就是传统的关于回归参数显著性的
t
检验法。
假设 2 H 0 : β i = β i 0
类似假设 1,这里
t =
~ t
(
n - k
)
同时也可以计算,比如
β
i
的 95%置信区间,而不用检验关于
β
i
的具体假设,这个置信区间是
。
假设 3 H 0 : β 2 + β 3 = 1
给出了两个估计系数的和是
,而此时
R
(
X'X
)
-1
R' = c
22
+ 2
c
23
+
c
33
[注:(
X'X
)
-1
= (
c
ij
) , R = (0,1,1,…,0)]。那么
=
=
=
于是检验统计量为
t =
~ t
(
n - k
)
或者,也可以计算
β
1
+
β
2
的 95%置信区间
假设 4 H 0 : β 3 = β 4 或 β 3 -β 4 = 0
类似假设 3,可推得此时的检验统计量为
t =
~ t
(
n - k
)
假设 5 H 0 : β 2 = β 3 = …= β k = 0
此时 R = (0 I k- 1 ), r = 0, q = k -1,那么可以推出(过程略):
F =
=
~ F
(
k -
1,
n - k
)
其中
,
x'x
为
X'X
去掉了第一行第一列的矩阵。这就是我们熟悉的关于回归方程显著性的
F
检验。
假设 6 H 0 : β II = 0
这里对应于
。把
X
分块为
X =
(
X
I
X
II
) ,可以证明(过程略)
此时
其中 e' 1 e 1 是 Y 对 X I做线性回归的残差平方和。 e'e 是 Y 对所有 X 回归的RSS。
通过上述示例,我们看到一般线性框架下的假设检验,它涵盖了传统计量经济分析中的统计检验方法。有了它,我们可以方便地实现许多实证问题中线性意义下的统计检验。其重要性是显而易见的。
上面假设 6 中情况出现的统计量就是这里所说的另一种形式。显然假设 5是假设 6 的特殊情况,而事实上其他的假设也可归于假设 6。这里有一个问题,对未知参数有约束限制的模型进行回归后的某种结果,与对未知参数没有约束限制的模型回归后的某种结果是否接近甚至一致?这是检验的关键。下面的分析回答了这一问题。
事实上,无论是假设 5 还是假设 6 都可以认为是用了两种不同回归的结果。第一种回归可看作有约束的回归,或者说H 0 中的约束条件实际上是估计方程施加的。即假设 5 中有约束回归是将 X 2 ,…, X k 从回归式中省略掉,或等价地说,令 β 2 ,…, β k 为零;在假设 6 中,有约束的回归只用了前面一部分变量 X I ( k - k 2 个)。而假设 5 和假设 6 的第二种回归是无约束回归,它们都用了所有的变量X。由于无约束模型的残差平方和RSS是 e'e ,有约束模型的残差平方和RSS记为 e' * e * ,因此对某些 β i 的显著性检验也就是问,对应的 X i 加入模型后,残差平方和RSS是否显著减少。
检验假设H 0 : Rβ = r 的统计量的另一种形式就是
这恰好说明前面所述的 6 种检验的情形都可以用上述方式进行,即拟合一个受约束的回归,用受约束模型的残差平方和与无约束模型的残差平方和之差 e' * e * - e'e 的大小(或记为RSSR- RSS U )来推断原假设是否成立。这也就是说一般的线性假设情形都是假设 6 的特例,或者式(2.18)的 F 统计量是普遍适应于一般线性假设的一种重要检验方法。更一般的表述为
其中RSS R 和RSS U 分别是受约束模型和无约束模型的残差平方和, q 是约束条件个数。如果对于未知参数有约束限制的模型进行回归后的结果(此处的RSS R ),与对没有约束限制的模型回归后的结果(此处的RSS U )很接近甚至相同(即RSS R - RSS U 很小甚至等于零),这时应接受原假设;否则拒绝原假设。
【例 2.3】考虑下列模型:
模型A: Y i = β 1 + β 2 X 2 i + β 3 X 3 i + β 4 X 4i + β 5 X 5 i + β 6 X 6 i + u i
模型B: Y i = β 1 + β 3 X 3 i + β 5 X 5 i + u i
模型A嵌套模型B (或者说模型B嵌套在模型A中),那么实际应用时是选择模型A还是模型B呢?这即是检验H 0 : β 2 = β 4 = β 6 = 0
一般的F检验统计量是
F =
~ F
(
q
,
n - k
)
其中, RSS R 是受约束模型(本例的模型B)的残差平方和; RSS U 是无约束模型(本例的模型A)的残差平方和; q 是约束个数, k 是无约束模型参数个数, n 是样本容量。(本例中 q = 3, k = 6)
如果 F 统计量的值大于临界值,则拒绝原假设,选择模型A;否则接受原假设,选择模型B。
以上是一般线性约束的假设检验,关于非线性约束的检验将在下一章介绍。