• 第7章-使用统计方法进行变量有效性测试-7.4.1-简单线性回归


    目录

    基本概念

    变量之间的关系

    相关分析

    回归分析

    相关分析和回归分析的关系

    一元线性回归模型

    总体回归函数

    样本回归函数

    线性回归模型的假定

    普通最小二乘法(Ordinary Least Squares,OLS)

    拟合优度指标

    回归系数估计量的性质

    回归系数估计量的线性性

    回归系数估计量的无偏性

    回归系数估计量的有效性

    回归系数估计量检验(t检验)

    参考文献


    基本概念

    变量之间的关系

            变量之间的关系,一般可以分成两类,确定性关系和非确定性的依存关系。

    (1)确定性关系

            如果一个变量的值Y" role="presentation" style="position: relative;">Y能被一个或若干个其他变量值X1,X2,...,Xk" role="presentation" style="position: relative;">X1,X2,...,Xk按某一规律唯一的确定,则这类变量之间就具有完全确定的关系。可以写成如下形式:

    Y=f(X1,X2,..,Xk)" role="presentation" style="position: relative;">Y=f(X1,X2,..,Xk)

    这里f" role="presentation" style="position: relative;">f就是“按某一规律唯一的确定”中的那个唯一的规律。确定性关系通常也称为函数关系。事实上,上式就是我们熟悉的多元函数。其中X1,X2,...,Xk" role="presentation" style="position: relative;">X1,X2,...,Xk为自变量,Y" role="presentation" style="position: relative;">Y为因变量。

           例如:假设每吨水的价格为10元时,居民应缴纳水费Y" role="presentation" style="position: relative;">Y(元),与用水量X" role="presentation" style="position: relative;">X(吨)之间的关系就是一个确定性关系,确定性关系如下:

    Y=10X" role="presentation" style="position: relative;">Y=10X

    (2)非确定性关系

            如果一个变量的值Y" role="presentation" style="position: relative;">Y与一个或若干个其他变量值X1,X2,...,Xk" role="presentation" style="position: relative;">X1,X2,...,Xk之间存在着密切的数量关系,却无法由X1,X2,...,Xk" role="presentation" style="position: relative;">X1,X2,...,Xk的值精确求出。在基于大量统计数据的基础之上,可以判别这类变量之间的数量关系具有一定的规律性,称为统计相关关系。

            例如:居民消费支出Y" role="presentation" style="position: relative;">Y,与可支配收入X" role="presentation" style="position: relative;">X之间存在着密切的数量关系。在一定范围内,可支配收入增加,居民的消费支出也会相应增加。但是,根据可支配收入并不能精确求出消费支出。也就是它们之间的关系是非确定性的。


    相关分析

            相关分析是通过对变量之间依存关系的分析,找出变量之间依存关系的形式和相关程度,以及依存关系的变动规律。

            从依存关系的形式来看,可分为线性相关和非线性相关。线性相关反映变量之间的依存关系近似表示为一条直线。而非线性相关无法近似的表示为一条直线。

            变量之间的相关程度,可以通过相关系数来度量。例如可以使用Pearson相关系数来度量两个连续型变量之间的相关程度(线性相关,Pearson相关系数为0只能说明变量之间不存在线性关系,但无法说明变量之间不存在关系)。

            关于Pearson相关系数可以参见皮尔逊相关系数(百度百科)。


    回归分析

            回归分析是研究某一被解释变量(因变量),与另一个或多个解释变量(自变量)间的依存关系,其目的在于根据已知的解释变量值来估计和预测被解释变量的总体平均值

            在研究某一社会经济现象的发展变化规律时,所研究的现象或对象称为被解释变量。它是分析的对象,把引起这一现象变化的因素称为解释变量。它是引起这一现象变化的原因。

            按照回归分析模型中自变量的个数,分为一元回归分析多元回归分析。一元回归分析是指分析模型中只有一个自变量,多元回归分析是指回归分析模型中有两个或两个以上的自变量。

            按照回归分析模型中参数被解释变量(因变量)之间是否线性,分为线性回归分析非线性回归分析。注意这里是针对参数,而不是自变量。

            本文将重点研究一元线性回归分析,也就是文章标题所写的“简单线性回归”。


    相关分析和回归分析的关系

            相关分析是回归分析的前提和基础,回归分析是相关分析的深入和继续。

            相关分析需要依靠回归分析来表现变量之间数量关系的具体形式。而回归分析则需要依靠相关分析来表现变量之间数量变化的相关程度。

            相关分析只研究变量之间相关的方向(正相关、负相关)和相关的程度(使用相关系数来度量),不能推断变量之间的相关关系的具体形式,也无法从一个变量的变化来推测另一个变量的变化情况。


    一元线性回归模型

    总体回归函数

            假若我们要研究的问题是:某市城镇居民家庭的可支配收入X" role="presentation" style="position: relative;">X和消费支出Y" role="presentation" style="position: relative;">Y之间的关系。则全市城镇居民家庭构成了研究的总体。某市全部城镇居民家庭可支配收入和消费支出统计数据如下:

    可支配收入X" role="presentation" style="position: relative;">X消费支出Y" role="presentation" style="position: relative;">Y户数平均消费支出
    X1" role="presentation" style="position: relative;">X1Y11,Y12,...,Y1n1" role="presentation" style="position: relative;">Y11,Y12,...,Y1n1n1" role="presentation" style="position: relative;">n1E(Y|X1)" role="presentation" style="position: relative;">E(Y|X1)
    X2" role="presentation" style="position: relative;">X2Y21,Y122,...,Y2n2" role="presentation" style="position: relative;">Y21,Y122,...,Y2n2n2" role="presentation" style="position: relative;">n2E(Y|X2)" role="presentation" style="position: relative;">E(Y|X2)
    ........................
    Xi" role="presentation" style="position: relative;">XiYi1,Yi2,...,Yini" role="presentation" style="position: relative;">Yi1,Yi2,...,Yinini" role="presentation" style="position: relative;">niE(Y|Xi)" role="presentation" style="position: relative;">E(Y|Xi)
    ........................
    Xk" role="presentation" style="position: relative;">XkYk1,Yk2,...,Yknk" role="presentation" style="position: relative;">Yk1,Yk2,...,Yknknk" role="presentation" style="position: relative;">nkE(Y|Xk)" role="presentation" style="position: relative;">E(Y|Xk)

    第1列是可支配收入X" role="presentation" style="position: relative;">X,分为k" role="presentation" style="position: relative;">k个不同的收入水平X1,X2,...,Xk" role="presentation" style="position: relative;">X1,X2,...,Xk

    第2列是消费支出,对于某一个收入水平Xi" role="presentation" style="position: relative;">Xi,总共有ni" role="presentation" style="position: relative;">ni户家庭的消费支出数据与之对应,反映了在给定某一收入水平下,有关消费支出的条件分布。根据条件分布可以计算出在某一收入水平下的平均消费支出E(Y|Xi)" role="presentation" style="position: relative;">E(Y|Xi),即条件均值。

            可以看出,对于每一个收入水平Xi" role="presentation" style="position: relative;">Xi,仅有唯一的一个条件均值E(Y|Xi)" role="presentation" style="position: relative;">E(Y|Xi)与之对应。这种一一对应关系,可以表示成如下函数关系:

    E(Y|Xi)=f(Xi)" role="presentation" style="position: relative;">E(Y|Xi)=f(Xi)              (1)

    该函数被称为总体回归函数(Population Regression Function, PRF),总体回归函数反映了在给定自变量Xi" role="presentation" style="position: relative;">Xi下,因变量Y" role="presentation" style="position: relative;">Y的分布的总体均值随自变量Xi" role="presentation" style="position: relative;">Xi的变化关系。

            总体回归函数f" role="presentation" style="position: relative;">f若是线性函数,有:

    E(Y|Xi)=β0+β1Xi" role="presentation" style="position: relative;">E(Y|Xi)=β0+β1Xi                 (2)

    其中β0,β1" role="presentation" style="position: relative;">β0,β1未知而固定的参数,称为回归系数(Regression Coefficients),特别地,β0" role="presentation" style="position: relative;">β0称为截距系数,β1" role="presentation" style="position: relative;">β1称为斜率系数。这里所谓的未知而固定,指的是通常研究的总体变量之间的关系是无法知道的,但又是客观存在的,只能根据样本数据来进行近似估计。(2)式也被称为一元线性总体回归函数

            事实上,E(Y|Xi)" role="presentation" style="position: relative;">E(Y|Xi)仅仅反映了在某一收入水平Xi" role="presentation" style="position: relative;">Xi下,平均消费支出水平。但是对于某一居民的家庭消费支出Yi" role="presentation" style="position: relative;">Yi不一定与该水平一致。或多或少存在一些偏差。该偏差用εi" role="presentation" style="position: relative;">εi表示。即:

    εi=YiE(Y|Xi)" role="presentation" style="position: relative;">εi=YiE(Y|Xi)

    则有

    Yi=E(Y|Xi)+εi" role="presentation" style="position: relative;">Yi=E(Y|Xi)+εi

    总体回归函数f" role="presentation" style="position: relative;">f若是线性函数,则

    Yi=β0+β1Xi+εi" role="presentation" style="position: relative;">Yi=β0+β1Xi+εi       (3)

    εi" role="presentation" style="position: relative;">εi是除可支配收入外,其他一个或多个影响消费支出的因素的综合影响,是一个不可观测的随机变量,称为随机误差项。注意到上式中下标i仅仅表达的是第i个收入水平,是一个随机变量,并不是第i个样本,所以,可以写成如下更一般的形式:

    Y=β0+β1X+ε" role="presentation" style="position: relative;">Y=β0+β1X+ε  

    该式就是本文要讨论的一元线性回归函数。式中的各个项都是真实值,不是预测值或估计值。注意到求解总体回归函数就是求解出回归系数β0,β1" role="presentation" style="position: relative;">β0,β1。下面介绍样本回归函数。


    样本回归函数

            根据总体可以建立总体回归函数,揭示被解释变量(因变量)随解释变量的变化而变化的规律。但在大多数实际情况中,总体的信息往往无法全部获得,我们所掌握的不过是与某些固定的X" role="presentation" style="position: relative;">X值相对应的Y" role="presentation" style="position: relative;">Y值样本,需要根据已知的样本信息去估计总体回归函数。

            假设现在不知道建立总体回归函数的统计数据,仅仅掌握了来自总体的一组样本数据,例如:

    根据以上样本数据拟合如下线性函数:

    Yi^=β0^+β1^Xi" role="presentation" style="position: relative;">Yi^=β0^+β1^Xi

    该式称为样本回归函数。比较该式与总体回归函数

    E(Y|Xi)=β0+β1Xi" role="presentation" style="position: relative;">E(Y|Xi)=β0+β1Xi

    假如β0^" role="presentation" style="position: relative;">β0^无限接近β0" role="presentation" style="position: relative;">β0\hat{\beta1}无限接近β1" role="presentation" style="position: relative;">β1,就可以用样本回归函数值Yi^" role="presentation" style="position: relative;">Yi^去估计总体回归函数E(Y|Xi)" role="presentation" style="position: relative;">E(Y|Xi)的值,即E(Y|Xi)Yi^" role="presentation" style="position: relative;">E(Y|Xi)Yi^

            估计值Yi^" role="presentation" style="position: relative;">Yi^与真实值Yi" role="presentation" style="position: relative;">Yi存在一定的误差,该偏差用ei" role="presentation" style="position: relative;">ei表示。如下:

    ei=YiYi^" role="presentation" style="position: relative;">ei=YiYi^

    Yi=Yi^+ei" role="presentation" style="position: relative;">Yi=Yi^+ei

    得到如下一元线性样本回归函数

    Yi=β0^+β1^Xi+ei" role="presentation" style="position: relative;">Yi=β0^+β1^Xi+ei

    ei" role="presentation" style="position: relative;">ei称为样本剩余项,或残差。


    线性回归模型的假定

    (1)线性于参数

    即讨论的模型是关于参数β0,β1" role="presentation" style="position: relative;">β0,β1的线性函数。即:

    Y=β0+β1X+ε" role="presentation" style="position: relative;">Y=β0+β1X+ε

    当然这里是一元情形,可以写成多元形式。

    (2)扰动项与自变量不相关,期望值为0

    Cov(Xi,εi)=0,E(εi)=0" role="presentation" style="position: relative;">Cov(Xi,εi)=0,E(εi)=0

     (3)扰动项之间相互独立且服从方差相等的同一个正态分布

    Cov(εi,εj)=0(ij),εiN(0,σ2)" role="presentation" style="position: relative;">Cov(εi,εj)=0(ij),εiN(0,σ2)


    普通最小二乘法(Ordinary Least Squares,OLS)

             如何根据样本数据信息估计回归系数呢?直觉告诉我们,预测值或估计值Yi^" role="presentation" style="position: relative;">Yi^尽可能接近观测值Yi" role="presentation" style="position: relative;">Yi。OLS的原理就是让残差平方和达到最小,来确定回归分析模型中的参数,也就是回归系数。即:

    mini=1nei2" role="presentation" style="position: relative;">mini=1nei2

    下面来估计和推导。由

    ei=YiYi^=Yiβ0^β1^Xi" role="presentation" style="position: relative;">ei=YiYi^=Yiβ0^β1^Xi

    得到残差平方和:

    i=1nei2=i=1n(Yiβ0^β1^Xi)2" role="presentation" style="position: relative;">i=1nei2=i=1n(Yiβ0^β1^Xi)2

    对于给定的样本,i=1nei2" role="presentation" style="position: relative;">i=1nei2是关于β0^,β1^" role="presentation" style="position: relative;">β0^,β1^的二元函数。即:

    f(β0^,β1^)=(Yiβ0^β1^Xi)2" role="presentation" style="position: relative;">f(β0^,β1^)=(Yiβ0^β1^Xi)2    

    根据最小二乘法原理,要求β0^,β1^" role="presentation" style="position: relative;">β0^,β1^使得i=1nei2" role="presentation" style="position: relative;">i=1nei2最小。借助微积分求极值方法。上式两边分别对β0^,β1^" role="presentation" style="position: relative;">β0^,β1^求偏导数,如下:

    fβ0^=0" role="presentation" style="position: relative;">fβ0^=0fβ1^=0" role="presentation" style="position: relative;">fβ1^=0

    求偏导数,得到:

    2i=1n(Yiβ0^β1^Xi)=0" role="presentation" style="position: relative;">2i=1n(Yiβ0^β1^Xi)=0

    2i=1n(Yiβ0^β1^Xi)Xi=0" role="presentation" style="position: relative;">2i=1n(Yiβ0^β1^Xi)Xi=0

    化简后得到:

    i=1nYinβ0^β1^i=1nXi=0" role="presentation" style="position: relative;">i=1nYinβ0^β1^i=1nXi=0                               (1)

    i=1nXiYiβ0^i=1nXiβ1^i=1nXi2=0" role="presentation" style="position: relative;">i=1nXiYiβ0^i=1nXiβ1^i=1nXi2=0           (2)

    (1)式两边除以n,

    β0^=1ni=1nYiβ1^1ni=1nXi" role="presentation" style="position: relative;">β0^=1ni=1nYiβ1^1ni=1nXi,即:β0^=Y¯β1^X¯" role="presentation" style="position: relative;">β0^=Y¯β1^X¯

    将其代入(2)式,求得:

    β1^=ni=1nXiYii=1nXii=1nYini=1nXi2(i=1nXi)2" role="presentation" style="position: relative;">β1^=ni=1nXiYii=1nXii=1nYini=1nXi2(i=1nXi)2

    化简后得到:

    β1^=i=1n(XiX¯)(YiY¯)i=1n(XiX¯)2" role="presentation" style="position: relative;">β1^=i=1n(XiX¯)(YiY¯)i=1n(XiX¯)2

    β0^=Y¯β1^X¯" role="presentation" style="position: relative;">β0^=Y¯β1^X¯

    我们以如下样本为例: 


    拟合优度指标

            根据最小二乘法原理,已经估计出回归系数β0^,β1^" role="presentation" style="position: relative;">β0^,β1^,从而可以得到样本回归函数:Yi=β0^+β1^Xi+ei" role="presentation" style="position: relative;">Yi=β0^+β1^Xi+ei

    那么,如何判断拟合的效果怎么样呢?这就要使用拟合优度指标R2" role="presentation" style="position: relative;">R2了,在介绍拟合优度指标之前。我们先证明一个恒等式。

    SST=SSE+SSR" role="presentation" style="position: relative;">SST=SSE+SSR

    其中,SST" role="presentation" style="position: relative;">SST为总离差平方和,或者总平方和(Total Sum of Squares),如下计算:

    SST=i=1n(YiY¯)2" role="presentation" style="position: relative;">SST=i=1n(YiY¯)2

    SSE" role="presentation" style="position: relative;">SSE为回归平方和,或者解释平方和(Explained Sum of Squares),如下计算:

    SSE=i=1n(Yi^Y¯)2" role="presentation" style="position: relative;">SSE=i=1n(Yi^Y¯)2

    SSR" role="presentation" style="position: relative;">SSR为残差平方和,或者剩余平方和(Residual Sum of Squares),如下计算:

    SSR=i=1n(Yi^Yi)2" role="presentation" style="position: relative;">SSR=i=1n(Yi^Yi)2

    这个等式表明:因为引入模型,SST被分解成了两部分SSE和SSR。证明思路也是如此。

    SST=i=1n(YiY¯)2" role="presentation" style="position: relative;">SST=i=1n(YiY¯)2

    =i=1n[(YiYi^)+(Yi^Y¯)]2" role="presentation" style="position: relative;">=i=1n[(YiYi^)+(Yi^Y¯)]2

    =i=1n(YiYi^)2+i=1n(Yi^Y¯)2+2i=1n(YiYi^)(Yi^Y¯)" role="presentation" style="position: relative;">=i=1n(YiYi^)2+i=1n(Yi^Y¯)2+2i=1n(YiYi^)(Yi^Y¯)

    =SSR+SSE+2i=1n(YiYi^)(Yi^Y¯)" role="presentation" style="position: relative;">=SSR+SSE+2i=1n(YiYi^)(Yi^Y¯)

    现在只需要证明最后一项为0即可,根据线性回归分析模型中的如下三个结论:

    Yi^=β0^+β1^Xi" role="presentation" style="position: relative;">Yi^=β0^+β1^Xi

    β0^=Y¯β1^X¯" role="presentation" style="position: relative;">β0^=Y¯β1^X¯

    β1^=i=1n(XiX¯)(YiY¯)i=1n(XiX¯)2" role="presentation" style="position: relative;">β1^=i=1n(XiX¯)(YiY¯)i=1n(XiX¯)2

    有:

    Yi^Y¯=β1^(XiX¯)" role="presentation" style="position: relative;">Yi^Y¯=β1^(XiX¯)

    YiYi^=(YiY¯)(Yi^Y¯)=(YiY¯)β1^(XiX¯)" role="presentation" style="position: relative;">YiYi^=(YiY¯)(Yi^Y¯)=(YiY¯)β1^(XiX¯)

    因此

    2i=1n(YiYi^)(Yi^Y¯)" role="presentation" style="position: relative;">2i=1n(YiYi^)(Yi^Y¯)

    =2i=1n[β1^(XiX¯)][(YiY¯)β1^(XiX¯)]" role="presentation" style="position: relative;">=2i=1n[β1^(XiX¯)][(YiY¯)β1^(XiX¯)]

    =2β1^[i=1n(XiX¯)(YiY¯)β1^i=1n(XiX¯)2]" role="presentation" style="position: relative;">=2β1^[i=1n(XiX¯)(YiY¯)β1^i=1n(XiX¯)2]

    =2β1^0=0" role="presentation" style="position: relative;">=2β1^0=0

    所以,SST=SSE+SSR" role="presentation" style="position: relative;">SST=SSE+SSR

    因为在样本给定的情况下,SST不会变,而最小二乘法原理是使得残差平方和最小,即SSR最小,也就是SSE最大。我们如下定义线性回归拟合优度指标R2" role="presentation" style="position: relative;">R2

    R2=SSESST=1SSRSST" role="presentation" style="position: relative;">R2=SSESST=1SSRSST

    显然R2[0,1]" role="presentation" style="position: relative;">R2[0,1]R2" role="presentation" style="position: relative;">R2越大,拟合效果越好。一般来说,如果R2" role="presentation" style="position: relative;">R2大于0.8,则说明拟合效果非常好。


    回归系数估计量的性质

    回归系数估计量的线性性

            回归系数β0,β1" role="presentation" style="position: relative;">β0,β1的估计量β0^,β1^" role="presentation" style="position: relative;">β0^,β1^是随机变量Yi" role="presentation" style="position: relative;">Yi的线性函数,这就是所谓的回归系数估计量的线性性。先给出结论:

    β1^=i=1nkiYi" role="presentation" style="position: relative;">β1^=i=1nkiYi,其中ki=XiX¯i=1n(XiX¯)2" role="presentation" style="position: relative;">ki=XiX¯i=1n(XiX¯)2

    β0^=i=1nhiYi" role="presentation" style="position: relative;">β0^=i=1nhiYi,其中hi=1nkiX¯" role="presentation" style="position: relative;">hi=1nkiX¯

    下面一一证明。

    (1)先证明估计量β1^" role="presentation" style="position: relative;">β1^的线性性。根据OLS得到的β1^" role="presentation" style="position: relative;">β1^如下:

    β1^=i=1n(XiX¯)(YiY¯)i=1n(XiX¯)2" role="presentation" style="position: relative;">β1^=i=1n(XiX¯)(YiY¯)i=1n(XiX¯)2

    将上式分子拆开,得到:

    β1^=i=1n(XiX¯)Yii=1n(XiX¯)Y¯i=1n(XiX¯)2" role="presentation" style="position: relative;">β1^=i=1n(XiX¯)Yii=1n(XiX¯)Y¯i=1n(XiX¯)2

    注意到:i=1n(XiX¯)Y¯=Y¯i=1n(XiX¯)=Y¯(i=1nXinX¯)=0" role="presentation" style="position: relative;">i=1n(XiX¯)Y¯=Y¯i=1n(XiX¯)=Y¯(i=1nXinX¯)=0

    所以得到:

    β1^=i=1n(XiX¯)Yii=1n(XiX¯)2=i=1nXiX¯i=1n(XiX¯)2Yi" role="presentation" style="position: relative;">β1^=i=1n(XiX¯)Yii=1n(XiX¯)2=i=1nXiX¯i=1n(XiX¯)2Yi

    如果令ki=XiX¯i=1n(XiX¯)2" role="presentation" style="position: relative;">ki=XiX¯i=1n(XiX¯)2,则ki" role="presentation" style="position: relative;">ki只与自变量有关,与Yi" role="presentation" style="position: relative;">Yi无关,最终得到:

    β1^=i=1nkiYi" role="presentation" style="position: relative;">β1^=i=1nkiYi

    可以看出回归系数估计量β1^" role="presentation" style="position: relative;">β1^是随机变量Yi" role="presentation" style="position: relative;">Yi的线性函数。

    (2)证明估计量β0^" role="presentation" style="position: relative;">β0^的线性性。根据OLS得到的β0^" role="presentation" style="position: relative;">β0^如下:

    β0^=Y¯β1^X¯" role="presentation" style="position: relative;">β0^=Y¯β1^X¯

    Y¯=1ni=1nYi" role="presentation" style="position: relative;">Y¯=1ni=1nYi(平均值的定义)

    β1^=i=1nkiYi" role="presentation" style="position: relative;">β1^=i=1nkiYi(估计量β1^" role="presentation" style="position: relative;">β1^的线性性)

    代入上式,得到:

    β0^=1ni=1nYiX¯i=1nkiYi" role="presentation" style="position: relative;">β0^=1ni=1nYiX¯i=1nkiYi

    =i=1n(1nkiX¯)Yi" role="presentation" style="position: relative;">=i=1n(1nkiX¯)Yi

    如果令hi=1nkiX¯" role="presentation" style="position: relative;">hi=1nkiX¯,则hi" role="presentation" style="position: relative;">hi只与自变量有关,与Yi" role="presentation" style="position: relative;">Yi无关,得到

    β0^=i=1nhiYi" role="presentation" style="position: relative;">β0^=i=1nhiYi

    可以看出回归系数估计量β0^" role="presentation" style="position: relative;">β0^是随机变量Yi" role="presentation" style="position: relative;">Yi的线性函数。


    回归系数估计量的无偏性

            如果估计量的均值等于总体参数,则称估计量就是无偏估计量,对于回归系数估计量来说,就是

    E(β0^)=β0" role="presentation" style="position: relative;">E(β0^)=β0

    E(β1^)=β1" role="presentation" style="position: relative;">E(β1^)=β1

            怎么理解无偏性呢。我们以β1^" role="presentation" style="position: relative;">β1^为例,β1^" role="presentation" style="position: relative;">β1^是使用样本数据估计得到的一个估计值,它可能比真实的总体参数β0" role="presentation" style="position: relative;">β0要大,如果换一组样本数据,β1^" role="presentation" style="position: relative;">β1^的估计值可能就比真实的总体参数β0" role="presentation" style="position: relative;">β0要小,当然,也可能是相等的,如果通过换更多组的样本数据,得到很多个β1^" role="presentation" style="position: relative;">β1^,虽然大小不一,但是它们的均值是真实值的总体参数。也就是无论你怎么更换样本数据,β1^" role="presentation" style="position: relative;">β1^的值在真实值左右摆动。

    (1)先证明估计量β1^" role="presentation" style="position: relative;">β1^的无偏性

    由回归系数估计量的线性性

    β1^=i=1nkiYi" role="presentation" style="position: relative;">β1^=i=1nkiYi,其中ki=XiX¯i=1n(XiX¯)2" role="presentation" style="position: relative;">ki=XiX¯i=1n(XiX¯)2

    以及

    Yi=β0+β1Xi+εi" role="presentation" style="position: relative;">Yi=β0+β1Xi+εi

    得到

    β1^=i=1nki(β0+β1Xi+εi)" role="presentation" style="position: relative;">β1^=i=1nki(β0+β1Xi+εi)

    =β0i=1nki+β1i=1nkiXi+i=1nkiεi" role="presentation" style="position: relative;">=β0i=1nki+β1i=1nkiXi+i=1nkiεi

    因为

    ki=XiX¯i=1n(XiX¯)2" role="presentation" style="position: relative;">ki=XiX¯i=1n(XiX¯)2

    容易验证:

    i=1nki=i=1nXiX¯i=1n(XiX¯)2=i=1n(XiX¯)i=1n(XiX¯)2=0" role="presentation" style="position: relative;">i=1nki=i=1nXiX¯i=1n(XiX¯)2=i=1n(XiX¯)i=1n(XiX¯)2=0i=1nkiXi=1" role="presentation" style="position: relative;">i=1nkiXi=1

    所以得到:

    β1^=β1+i=1nkiεi" role="presentation" style="position: relative;">β1^=β1+i=1nkiεi(该式表明了估计量与真实值之间的关系)

    上式两边取期望,根据期望性质,得到:

    E(β1^)=E(β1+i=1nkiεi)=E(β1)+E(i=1nkiεi)" role="presentation" style="position: relative;">E(β1^)=E(β1+i=1nkiεi)=E(β1)+E(i=1nkiεi)

    =β1+i=1nE(kiεi)=β1+i=1nkiE(εi)" role="presentation" style="position: relative;">=β1+i=1nE(kiεi)=β1+i=1nkiE(εi)

    根据模型假定εiN(0,σ2)" role="presentation" style="position: relative;">εiN(0,σ2)E(εi)=0" role="presentation" style="position: relative;">E(εi)=0,得到

    E(β1^)=β1" role="presentation" style="position: relative;">E(β1^)=β1

    (2)证明估计量β0^" role="presentation" style="position: relative;">β0^的无偏性

    由回归系数估计量的线性性

    β0^=i=1nhiYi" role="presentation" style="position: relative;">β0^=i=1nhiYi,其中hi=1nkiX¯" role="presentation" style="position: relative;">hi=1nkiX¯

    以及

    Yi=β0+β1Xi+εi" role="presentation" style="position: relative;">Yi=β0+β1Xi+εi

    得到:

    β0^=i=1nhi(β0+β1Xi+εi)" role="presentation" style="position: relative;">β0^=i=1nhi(β0+β1Xi+εi)

    =β0i=1nhi+β1i=1nhiXi+i=1nhiεi" role="presentation" style="position: relative;">=β0i=1nhi+β1i=1nhiXi+i=1nhiεi

    容易验证:

    i=1nhi=i=1n(1nkiX¯)=1" role="presentation" style="position: relative;">i=1nhi=i=1n(1nkiX¯)=1

    i=1nhiXi=i=1n(1nkiX¯)Xi=1ni=1nXiX¯i=1nkiXi=0" role="presentation" style="position: relative;">i=1nhiXi=i=1n(1nkiX¯)Xi=1ni=1nXiX¯i=1nkiXi=0

    得到:

    β0^=β0+i=1nhiεi" role="presentation" style="position: relative;">β0^=β0+i=1nhiεi(该式表明了估计量与真实值之间的关系)

    上式两边取期望,所以

    E(β0^)=E(β0)+E(i=1nhiεi)" role="presentation" style="position: relative;">E(β0^)=E(β0)+E(i=1nhiεi)

    所以

    E(β0^)=β0" role="presentation" style="position: relative;">E(β0^)=β0


    回归系数估计量的有效性

            所谓回归系数估计量的有效性是指,在所有关于总体参数真实值β0" role="presentation" style="position: relative;">β0β1" role="presentation" style="position: relative;">β1的无偏估计β0^" role="presentation" style="position: relative;">β0^β1^" role="presentation" style="position: relative;">β1^中,β0^" role="presentation" style="position: relative;">β0^β1^" role="presentation" style="position: relative;">β1^的方差Var(β0^)" role="presentation" style="position: relative;">Var(β0^)Var(β1^)" role="presentation" style="position: relative;">Var(β1^)最小。我们先给出使用OLS得到的回归系数估计量的方差。

    Var(β1^)=σ2i=1n(XiX¯)2" role="presentation" style="position: relative;">Var(β1^)=σ2i=1n(XiX¯)2

    Var(β0^)=σ2i=1nXi2ni=1n(XiX¯)2" role="presentation" style="position: relative;">Var(β0^)=σ2i=1nXi2ni=1n(XiX¯)2

    (1)β1^" role="presentation" style="position: relative;">β1^的方差Var(β1^)" role="presentation" style="position: relative;">Var(β1^)

    因为估计量β1^" role="presentation" style="position: relative;">β1^与真实值β1" role="presentation" style="position: relative;">β1有如下关系

    β1^=β1+i=1nkiεi" role="presentation" style="position: relative;">β1^=β1+i=1nkiεi

    两边取方差,得到

    Var(β1^)=Var(β1+i=1nkiεi)=Var(β1)+Var(i=1nkiεi)" role="presentation" style="position: relative;">Var(β1^)=Var(β1+i=1nkiεi)=Var(β1)+Var(i=1nkiεi)

    =i=1nVar(kiεi)=i=1nki2Var(εi)" role="presentation" style="position: relative;">=i=1nVar(kiεi)=i=1nki2Var(εi)

    根据模型假定Var(εi)=σ2" role="presentation" style="position: relative;">Var(εi)=σ2,所以

    Var(β1^)=σ2i=1nki2" role="presentation" style="position: relative;">Var(β1^)=σ2i=1nki2

    因为

    ki=XiX¯i=1n(XiX¯)2" role="presentation" style="position: relative;">ki=XiX¯i=1n(XiX¯)2

    得到:

    \sum_{i=1}^{n}k_i^2=\sum_{i=1}^{n}[\frac{X_i-\bar{X}}{\sum_{i=1}^{n}(X_i-\bar{X})^2}]^2=\frac{1}{\sum_{i=1}^{n}(X_i-\bar{X})^2}

    最终

    Var(β1^)=σ2i=1n(XiX¯)2" role="presentation" style="position: relative;">Var(β1^)=σ2i=1n(XiX¯)2

    (2)β0^" role="presentation" style="position: relative;">β0^的方差Var(β0^)" role="presentation" style="position: relative;">Var(β0^)

    因为估计量β0^" role="presentation" style="position: relative;">β0^与真实值β0" role="presentation" style="position: relative;">β0有如下关系

    β0^=β0+i=1nhiεi" role="presentation" style="position: relative;">β0^=β0+i=1nhiεi,其中hi=1nkiX¯" role="presentation" style="position: relative;">hi=1nkiX¯ki=XiX¯i=1n(XiX¯)2" role="presentation" style="position: relative;">ki=XiX¯i=1n(XiX¯)2

    两边取方差,有

    Var(β0^)=Var(β0+i=1nhiεi)=Var(β0)+Var(i=1nhiεi)" role="presentation" style="position: relative;">Var(β0^)=Var(β0+i=1nhiεi)=Var(β0)+Var(i=1nhiεi)

    =i=1nhi2Var(εi)" role="presentation" style="position: relative;">=i=1nhi2Var(εi)

    =σ2i=1nhi2=σ2i=1n(1nkiX¯)2=σ2i=1n(1n22kiX¯n+ki2X¯2)" role="presentation" style="position: relative;">=σ2i=1nhi2=σ2i=1n(1nkiX¯)2=σ2i=1n(1n22kiX¯n+ki2X¯2)

    =σ2(1ni=1n2kiX¯n+i=1nki2X¯2)" role="presentation" style="position: relative;">=σ2(1ni=1n2kiX¯n+i=1nki2X¯2)

    =σ2(1n+X¯2i=1nki2)" role="presentation" style="position: relative;">=σ2(1n+X¯2i=1nki2)

    =σ2(1n+X¯2i=1n(XiX¯)2)" role="presentation" style="position: relative;">=σ2(1n+X¯2i=1n(XiX¯)2)

    =σ2nX¯2+i=1n(XiX¯)2ni=1n(XiX¯)2" role="presentation" style="position: relative;">=σ2nX¯2+i=1n(XiX¯)2ni=1n(XiX¯)2

    =σ2i=1nXi2ni=1n(XiX¯)2" role="presentation" style="position: relative;">=σ2i=1nXi2ni=1n(XiX¯)2

    即:

    Var(β0^)=σ2i=1nXi2ni=1n(XiX¯)2" role="presentation" style="position: relative;">Var(β0^)=σ2i=1nXi2ni=1n(XiX¯)2

    (3)β1^" role="presentation" style="position: relative;">β1^有效性

    β1^" role="presentation" style="position: relative;">β1^是使用其他方法得到的β1" role="presentation" style="position: relative;">β1的线性无偏估计量。由线性性可知:β1^=i=1nwiYi" role="presentation" style="position: relative;">β1^=i=1nwiYi,该式两边取方差,得到

    Var(β1^)=Var(i=1nwiYi)=Var(i=1n[(wiki)+ki]Yi)" role="presentation" style="position: relative;">Var(β1^)=Var(i=1nwiYi)=Var(i=1n[(wiki)+ki]Yi)

    =i=1n[(wiki)2Var(Yi)+Var(kiYi)]" role="presentation" style="position: relative;">=i=1n[(wiki)2Var(Yi)+Var(kiYi)]

    =i=1n(wiki)2Var(Yi)+Var(β1^)" role="presentation" style="position: relative;">=i=1n(wiki)2Var(Yi)+Var(β1^)

    Var(β1^)" role="presentation" style="position: relative;">Var(β1^)

    (4)β0^" role="presentation" style="position: relative;">β0^有效性

    可类似证明。

    由上面的推导知道:

    β1^=β1+i=1nkiεi" role="presentation" style="position: relative;">β1^=β1+i=1nkiεi

    β0^=β0+i=1nhiεi" role="presentation" style="position: relative;">β0^=β0+i=1nhiεi

    可以看出β0^" role="presentation" style="position: relative;">β0^β1^" role="presentation" style="position: relative;">β1^都是干扰项εi" role="presentation" style="position: relative;">εi的线性函数。而εiN(0,σ2)" role="presentation" style="position: relative;">εiN(0,σ2),由正态分布的性质,得到回归系数估计量β0^" role="presentation" style="position: relative;">β0^β1^" role="presentation" style="position: relative;">β1^均服从如下正态分布:

    β0^N(β0,σ2i=1nXi2ni=1n(XiX¯)2)" role="presentation" style="position: relative;">β0^N(β0,σ2i=1nXi2ni=1n(XiX¯)2)

    β1^N(β1,σ2i=1n(XiX¯)2)" role="presentation" style="position: relative;">β1^N(β1,σ2i=1n(XiX¯)2)

    这里遗憾的是,回归系数估计量β0^" role="presentation" style="position: relative;">β0^β1^" role="presentation" style="position: relative;">β1^的方差中的扰动项方差σ2" role="presentation" style="position: relative;">σ2是未知的。


    回归系数估计量检验(t检验)

            估计出一元回归分析的回归系数后,需要对其进行检验。假设问题如下:

    (1)原假设H0" role="presentation" style="position: relative;">H0β1=0" role="presentation" style="position: relative;">β1=0

    (2)备择假设H1" role="presentation" style="position: relative;">H1β10" role="presentation" style="position: relative;">β10

    β0" role="presentation" style="position: relative;">β0类似,这里不再累述。

    构造如下统计量:

    t=β1^Sβ1^=β1^i=1nei2(n2)i=1n(XiX¯)2" role="presentation" style="position: relative;">t=β1^Sβ1^=β1^i=1nei2(n2)i=1n(XiX¯)2

    其中β1^=i=1n(XiX¯)(YiY¯)i=1n(XiX¯)2" role="presentation" style="position: relative;">β1^=i=1n(XiX¯)(YiY¯)i=1n(XiX¯)2Sβ1^=i=1nei2(n2)i=1n(XiX¯)2" role="presentation" style="position: relative;">Sβ1^=i=1nei2(n2)i=1n(XiX¯)2

    下面我们来证明该统计量在原假设下服从自由度为n-2的t分布。

    参见《一些常见分布-正态分布、对数正态分布、伽马分布、卡方分布、t分布、F分布等》

    根据t分布的如下定义: 

     只需要分子构造一个标准正态分布GN(0,1)" role="presentation" style="position: relative;">GN(0,1),分母构造一个自由度为n-2的卡方分布Hχ(n2)" role="presentation" style="position: relative;">Hχ(n2),则如下Z" role="presentation" style="position: relative;">Z分布

    Z=GH/(n2)t(n2)" role="presentation" style="position: relative;">Z=GH/(n2)t(n2)

    就是一个自由度为n-2的t分布。

    因为

    β1^N(β1,σ2i=1n(XiX¯)2)" role="presentation" style="position: relative;">β1^N(β1,σ2i=1n(XiX¯)2)

    则如下构造的G" role="presentation" style="position: relative;">G分布服从标准正态分布

    G=β1^β1σ2i=1n(XiX¯)2N(0,1)" role="presentation" style="position: relative;">G=β1^β1σ2i=1n(XiX¯)2N(0,1)

    构造如下H分布:

    H=1σ2i=1nei2" role="presentation" style="position: relative;">H=1σ2i=1nei2

    则Z分布如下:

    Z=GH/(n2)=β1^β1σ2i=1n(XiX¯)211σ2i=1nei2/(n2)" role="presentation" style="position: relative;">Z=GH/(n2)=β1^β1σ2i=1n(XiX¯)211σ2i=1nei2/(n2)

    =β1^β1i=1nei2(n2)i=1n(XiX¯)2=β1^β1Sβ1^" role="presentation" style="position: relative;">=β1^β1i=1nei2(n2)i=1n(XiX¯)2=β1^β1Sβ1^

    因为原假设成立β1=0" role="presentation" style="position: relative;">β1=0,即

    Z=β1^Sβ1^" role="presentation" style="position: relative;">Z=β1^Sβ1^

    所以现在只需要证明H=1σ2i=1nei2χ(n2)" role="presentation" style="position: relative;">H=1σ2i=1nei2χ(n2)

    这里参照《多元线性回归参数检验服从t分布的证明》证明。

    参考文献

    线性回归R2-F-t检验 - 360文档中心

    多元线性回归参数检验服从t分布的证明 - 知乎线性回归的四个假设 The Four Assumptions of Linear Regression - 知乎

  • 相关阅读:
    安卓毕业设计app项目源码移动端的医生寻访平台
    SpringBoot整合redis实现过期Key监控处理(最简单模式)
    【FPGA教程案例62】硬件开发板调试2——使用ila核在线调试,ila数据保存,读取,matlab辅助分析
    Java练习任务【15】
    动手做一个 vue 右键菜单
    【代码随想录】算法训练计划13
    力扣hot100:146. LRU 缓存
    AndroidStudio连接真机测试运行
    交换机和路由器技术-26-OSPF末梢区域配置
    Spring框架系列(9) - Spring AOP实现原理详解之AOP切面的实现
  • 原文地址:https://blog.csdn.net/L_15156024189/article/details/134488992