多元线性回归模型分析1

上传人:san****019 文档编号:83456595 上传时间:2019-02-27 格式:PPT 页数:86 大小:791.50KB
返回 下载 相关 举报
多元线性回归模型分析1_第1页
第1页 / 共86页
多元线性回归模型分析1_第2页
第2页 / 共86页
多元线性回归模型分析1_第3页
第3页 / 共86页
多元线性回归模型分析1_第4页
第4页 / 共86页
多元线性回归模型分析1_第5页
第5页 / 共86页
点击查看更多>>
资源描述

《多元线性回归模型分析1》由会员分享,可在线阅读,更多相关《多元线性回归模型分析1(86页珍藏版)》请在金锄头文库上搜索。

1、第三章 多元线性回归模型*,多元线性回归模型是我们课程的重点,原因在于: 多元线性回归模型应用非常普遍; 原理和方法是理解更复杂计量经济学模型的基础; 内容较为丰富。 从而,我们应不遗余力地学,甚至是不遗余力地背!,本章主要内容,多元线性回归模型的描述 参数的OLS估计 OLS估计量的有限样本性质 参数估计量的方差-协方差矩阵和随机误差项方差2的估计 单方程模型的统计检验 多元线性回归模型实例,3.1 多元线性回归模型的描述,1、多元线性回归模型的形式,由于在实际经济问题中,一个变量往往受到多个原因变量的影响; “从一般到简单”的建模思路。 所以,在线性回归模型中的解释变量有多个,至少开始是这

2、样。这样的模型被称为多元线性回归模型。 多元线性回归模型参数估计的原理与一元线性回归模型相同,只是计算更为复杂。,以多元线性回归模型的一般形式K元线性回归模型入手进行讲解,其模型结构如下:,Y= x11 + x22 + xk k + (1),其中,Y是被解释变量(因变量、相依变量、内生变量),x是解释变量(自变量、独立变量、外生变量), 是随机误差项,i, i = 1, , k 是回归参数。 线性回归模型的意义在于把Y分成两部分:确定性部分和非确定性部分。,在研究中,我们根本无法了解式(1)所示的总体模型的特征,而只能通过样本特征来近似考察。 设经过n次试验,得到n个样本,如下所示:,y1 x

3、11 x12 x1 k y2 x21 x22 x2 k yn x n1 x n2 x nk,从而得到表达式如下: Yi= xi11 + xi22 + xik k + i (2) 其中,式(1)称为总体线性模型;式(2)称为样本线性模型。,在计量经济学分析中,通常会借助矩阵工具,在此亦将多元线性模型表示成矩阵形式,以便于下一步的数学运算。,(3),写成一般形式为: Y = X + (4) 针对式(4),在这里主要讲参数估计和统计推断,但在此之前,我们要先回顾一下什么模型才是多元线性回归模型,即了解线性回归模型的6大假设,这一点十分重要。,(1)线性性。即要求模型关于参数是线性的,关于扰动项是可加

4、的。 (2) 满秩。说明解释变量之间是线性无关的,这一假设很重要,在后面会经常受到。 (3)回归性。x与不相关。 (4)x的DGP是外生的。x相对于y是外生的,是非随机的。 (5)球形扰动。同方差性和非自相关性。 (6)正态假设。,2、多元回归方程及偏回归系数的含义,称为多元回归方程(函数)。,多元回归分析(multiple regression analysis)是以多个解释变量的固定值为条件的回归分析,并且所获得的是诸变量X值固定时Y的平均值。诸i称为偏回归系数(partial regression coefficients)。,在经典回归模型的诸假设下,对(1)式两边求条件期望得 E(Y

5、|X1,X2,Xk)= x11 + x22 + xk k,偏回归系数的含义如下: 1度量着在X2,X3,Xk保持不变的情况下,X1每变化1个单位时,Y的均值E(Y)的变化,或者说1给出X1的单位变化对Y均值的“直接”或“净”(不含其他变量)影响。 其他参数的含义与之相同。,例: 其中,Ct=消费,Dt=居民可支配收入 Lt=居民拥有的流动资产水平 2的含义是,在流动资产不变的情况下,可支配收入变动一个单位对消费额的影响。这是收入对消费额的直接影响。 收入变动对消费额的总影响=直接影响+间接影响。 (间接影响:收入流动资产拥有量消费额) 但在模型中这种间接影响应归因于流动资产,而不是收入,因而,

6、2只包括收入的直接影响。 在下面的模型中: 这里,是可支配收入对消费额的总影响,显然和2的含义是不同的。偏回归系数bj就是xj本身变化对y的直接(净)影响。,需要说明的是,如果令x11,则1便是常数项。习惯上把常数项看成为一个虚变量的系数,在参数估计过程中该虚变量的样本观测值始终取1。 通常,一定要假设在模型中有常数项,即尽量让模型包含常数项,以中心化误差。,3.2 参数的OLS估计,参数的OLS估计 附录:极大似然估计和矩估计 投影和投影矩阵 分块回归和偏回归 偏相关系数,我们的模型是:,残差为:,一、参数的OLS估计 普通最小二乘估计原理:使样本残差平方和最小,Y= x11 + x22 +

7、 xk k + ,关键问题是选择的估计量b(或 ),使得残差平方和最小。,要使残差平方和,于是得到关于待估参数估计值的K个方程(即正规方程组):,为最小,则应有:,按矩阵形式,上述方程组可表示为:,即,上述结果,亦可从矩阵表示的模型 出发,完全用矩阵代数推导出来。,其中:,残差可用矩阵表示为:,残差平方和,注意到上式中所有项都是标量,且,与采用标量式推导所得结果相同。因为x是满秩的(假设2),所以(X X)-1存在。所以,得到的估计为,用向量展开或矩阵微分法(前导不变后导转置),我们可得到关于待估参数估计值的正规方程组:,令,故,注:这只是得到了求极值的必要条件。到目前为止,仍不能确定这一极值

8、是极大还是极小。接下来考察求极值充分条件。,注意到上述条件只是极小化问题的必要条件,为了判断充分性,我们需要求出目标函数的Hessian矩阵 :,如果这个Hessian矩阵是正定的,则可以判断所得到的解是唯一的最小二乘解。 显然,根据正定矩阵的定义或者正定矩阵的判断准则,可知当矩阵的满秩条件满足时,矩阵是正定的,因此最小二乘解的充分性成立。从而,OLS估计量为:,样本回归线的数值性质,需要注意的是,上述命题成立的前提是线性模型中包含常数项,也就是第一个解释变量是“哑变量”形式。这样一个思考题目就是,当线性模型中不包含常数项时,结论是什么样的?,(3)的证明方法1 因为ei=0,所以对 两边求和

9、即可。,附录:极大似然估计,回忆一元线性回归模型,将该或然函数极大化,即可求得到模型参数的极大或然估计量。,由于或然函数的极大化与或然函数的对数的极大化是等价的,所以,取对数或然函数如下:,同理,分析多元线性回归模型 Y的随机抽取的n组样本观测值的联合概率,对数似然函数为 参数的极大似然估计 结果与参数的普通最小二乘估计相同,附录:矩估计(Moment Method,MM),矩估计是基于实际参数满足一些矩条件而形成的一种参数估计方法。 随机变量的均值和方差如何得到? 例:总体:E(Y-)=0 样本矩(用样本矩估计总体矩): 满足相应的矩条件:,同理,方差的估计量是样本的二阶中心矩。 现在,考虑

10、一元线性回归模型中的假设条件:,其所对应的样本矩条件分别为:,可见,与OLS估计量的正规方程组是相同的。 多元线性回归模型矩估计的矩条件通常是这样构造的: 对于多元线性回归模型 Y=X+ 两边分别左乘 ,即得到,上式称为总体回归方程的一组矩条件。现在,我们随机抽取样本,用样本矩代替总体矩,得到:,解此正规方程组即得参数的估计量,这种估计方法称为矩估计。其参数估计结果与OLS一致。 样本形式:用每个解释变量分别乘以模型的两边,并对所有样本点求和,即得到:,对每个方程的两边求期望,有:,得到一组矩条件 求解这组矩条件,即得到参数估计量 与OLS、ML估计量等价,矩方法是工具变量方法(Instrum

11、ental Variables,IV)和广义矩估计方法(Generalized Moment Method, GMM)的基础 在矩方法中关键是利用了 如果某个解释变量与随机项相关,只要能找到1个工具变量,仍然可以构成一组矩条件。这就是IV。 如果存在k+1个变量与随机项不相关,可以构成一组方程数k+1的矩条件。这就是GMM。,广义矩估计中,矩条件的个数大于参数个数,会出现什么问题呢? 过度识别 则必须想办法调和出现在过度识别系统中相互冲突的估计。那如何解决呢? 广义矩估计的思想是使得样本矩与总体矩的加权距离(即马氏距离)最小。主要是考虑到不同的矩所起的作用可能不同。,注意:GMM估计是一个大样

12、本估计。在大样本的情况下,GMM估计量是渐进有效的,在小样本情况下是无效的。所以,只有在大样本情况下,才能使用GMM方法进行参数估计。,二、投影和投影矩阵 OLS估计的几何性质,获得最小二乘估计以后,可以获得下述最小二乘残差:,将最小二乘估计的表达式代入,得到:,其中定义的矩阵 在回归分析中是非常基础和重要的。显然,这个矩阵是对称幂等矩阵:,其次,还有一些重要的性质需要注意,例如对称幂等矩阵的特征根非0即1(对称矩阵的特征根均为实数),因此矩阵具有性质:矩阵的迹等于矩阵的秩。,显然,矩阵M的作用是,它乘积作用在某个向量y上,就可以得到这个向量y基于数据变量的最小二乘回归的残差向量,因此经常将这

13、个矩阵称为“残差生成矩阵”(residual maker)。这里需要注意M的定义和所作用的变量,是所作用变量关于M定义中数据矩阵的回归残差。即,显然,X基于自己的线性回归的最小二乘残差一定为零,则必然有(即使验证也十分显然):,根据此性质,我们来考察最小二乘估计的性质。已知:,这说明最小二乘回归将变量y分解成为两个部分,一个部分是拟合值 ,另一个部分是残差e,由于,这说明最小二乘回归与残差是正交的。因此,这样的分解是正交分解,也就是说最小二乘的拟合值向量和残差向量是正交的(意味着这两个向量之间的夹角为垂角)。这时也可以得到:,这里矩阵 也是一个对称幂等矩阵,我们称其为投影矩阵(project

14、matrix),它是由矩阵X构成的,并且它如果乘积作用到向量y上,则可以得到y基于变量X的最小二乘回归的拟合值。这也是向量y在矩阵X的各列生成的线性空间上的投影。,注释:假设y在矩阵X的各列生成的线性空间上的投影是yp ,则yp的定义是:,且选择 使得,由于上述向量之间的模与最小二乘距离是一致的,因此投影值便是最小二乘估计的拟合值,即,为了更好地理解上述定义和公式,我们将一些有用的结论归纳为下述命题: 命题1 在线性模型的最小二乘估计中,可以得到: (1)P+M=I(显然) (2)PM=MP=0,即矩阵P与M是正交的。 证明:因为P=I-M,所以PM=(I-M)M=M-M2=0 (3)矩阵P具

15、有自投影不变性,即PX=X。 (4)向量y可以通过投影进行正交分解,即分解为投影和残差:y=Py+My。 证明:y=Iy=(P+M)y=Py+My,投影和残差是正交的,(5)平方和分解公式成立: 证明:因为 所以 (6)残差平方和可以表示为: 证明:因为e=My,且M是对阵幂等矩阵,所以,(7)残差平方和也可以表示为: 证明:根据(5)式,可得 而且可推知, 又因为e=y-Xb,则有,三、分块回归与偏回归 (partitioned regression and partial regression ),通常在进行线性回归时我们假定了完全的回归变量,但事实上我们只对其中的部分变量感兴趣。这时我们就需要考虑将一部分变量从回归变量中删除所导致的结果。 假设回归方程中涉及到两部分变量X1和X2,这时有: 由于X=(X1,X2), k1 k2,请问:根据模型 得到的b1,是否与根据模型 得到的b1相等?,思考,则有:,从而,正规方程组X Y = X Xb变成: 从而得到,上述四块矩阵可以通过下述分块逆矩阵公式得到: 利用该公式可得到:,以上结果也可以直接计算得到: 由正规方程组,得到:,根据第一个方程得到,上述解的公式表明,系数 的最小二乘估计 是y基于X1的回归系数,减去一个修正向量 。 上述获得参数

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 大学课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号