计量经济学第二章-一元线性回归模型

上传人:F****n 文档编号:88228078 上传时间:2019-04-21 格式:PPT 页数:130 大小:1.92MB
返回 下载 相关 举报
计量经济学第二章-一元线性回归模型_第1页
第1页 / 共130页
计量经济学第二章-一元线性回归模型_第2页
第2页 / 共130页
计量经济学第二章-一元线性回归模型_第3页
第3页 / 共130页
计量经济学第二章-一元线性回归模型_第4页
第4页 / 共130页
计量经济学第二章-一元线性回归模型_第5页
第5页 / 共130页
点击查看更多>>
资源描述

《计量经济学第二章-一元线性回归模型》由会员分享,可在线阅读,更多相关《计量经济学第二章-一元线性回归模型(130页珍藏版)》请在金锄头文库上搜索。

1、第二章 一元线性回归模型,回归模型的一般描述 参数的最小二乘估计 最小二乘估计量的统计特性 统计显著性检验 预测与控制 案例分析,第一节 回归模型的一般描述,(1)确定性关系或函数关系:变量之间 有唯一确定性的函数关系。其一般表现形式为:,一、回归模型的一般形式,1、变量间的关系 经济变量之间的关系,大体可分为两类:,(2.1.1),如银行存款中,利息和与本金之间的关系。,(2)统计关系或相关关系:变量之间为非确定 性依赖关系。其一般表现形式为:,(2.1.2),例如:农作物产量与施肥量间的关系; 家庭消费支出与家庭收入之间的关系等,计量经济学只讨论变量间不完全确定的关系,2、总体回归模型,若

2、x和y之间确有因果关系,则称 为总体回归模型,x(一个或几个)为自变量(或解释变量),y为因变量(或被解释变量),u为随机项(误差项或扰动项).,一般说来,随机项主要来自以下几个方面:,2、统计误差。数据搜集中由于计量、计算、记录等 导致的登记误差;或由样本信息推断总体信息时产生 的代表性误差。,3、模型的设定误差。如在模型构造时,非线性关系 用线性模型描述了;复杂关系用简单模型描述了;此 非线性关系用彼非线性模型描述了等等。,4、偶然性误差。被解释变量还受一些不可控制的众多 的、细小的偶然因素的影响。,1、变量的省略。由于人们认识的局限不能穷尽所有的 影响因素或由于受时间、费用、数据质量等制

3、约而没有 引入模型之中的对被解释变量有一定影响的自变量。,二、一元线性回归模型,对于总体回归模型,当只有一个自变量且,时,称之为一元线性总体回归模型,其一般形式是,其中 和 为两个待定参数,产生并设计随机误差项的主要原因: 理论的含糊性; 数据的欠缺; 节省原则。,线性回归模型”中的“线性”一词在这里有两重含义:,一是被解释变量y与解释变量x之间为线性关系,即解释 变量x仅以一次方的形式出现在模型之中。用数学语言 表示为:,二是被解释变量y与参数 , 之间为线性关系,即参数仅以一次方的形式出现在模型之中。 用数学语言表示为:,为线性关系,即使被解释变量y与解释变量x之间不为 线性关系,我们也可

4、以通过变量替换方便地将其化为 线性。,在计量经济学中,我们更关心被解释变量y与参数 之 间的线性关系。因为只要被解释变量y与参数 之间,例:,令,则,三、回归与回归分析的内容,(一)“回归”名称的由来和回归分析的基本思想和方法,“回归”一词来源于生物学;英国统计学家高尔顿(F.alton)和他的学生皮尔逊(.Pearson)在研究父母身高与其子女身高的遗传问题时,观察了1078对夫妇,以每对夫妇的平均身高作为x,而取他们的一个成年儿子的身高作为y,将结果在平面直角坐标系上绘成散点图,发现趋势近乎一条直线,计算出的回归直线方程为:,Y=83.73+0.516x,表明:父母平均身高增减一个单位,其

5、成年子女的身高仅平均增减0.516个单位.,即:虽然高(矮)个子父辈有生高(矮)个子儿子的趋势,但子代的平均身高向中间回归了.故高尔顿引用了“回归”(regression)一词来描述父辈身高与子代身高之间的关系。,在生物学上,回归指后代的遗传特征有返回该物种特征平均值的倾向,从而使该物种的基本特征得以延续,“回归”通常指散点分布在一条直线(或曲线)附近,且越靠近该直线(或曲线),点的分布越密集,注:回归分析的基本概念 回归分析(regression analysis)是研究一个变量关于另一个(些)变量的具体依赖关系的计算方法和理论。 其目的在于通过后者的已知或设定值,去估计和(或)预测前者的(

6、总体)均值。 被解释变量(Explained Variable)或应变量(Dependent Variable)。 解释变量(Explanatory Variable)或自变量(Independent Variable)。,(二)回归分析的主要内容,对大量的经济变量间的关系研究已远远超出上述特定的含义,而仅是接受其基本思想和方法回归分析的主要内容包括以下三个方面:,、进行参数估计。即如何根据既定的样本观测值 对回归模型的参数进行估计,求出具体的回归方程。,、进行统计显著性检验。即对回归方程、参数估计 值进行显著性检验与校正,以便使回归方程或参数更 加优良。,、进行预测和控制。如何根据回归方程进

7、行适当的 预测和控制是回归分析的最终目的。,四、经典假设条件,在给定样本观测值(样本值) ,i=1,2,3,n后,为了估计上式的参数 和 ,必须对随机项做出某些合理的假定。,说明:参数估计的方法有很多,其中使用最广泛的是普通最小二乘法(Ordinary Least Squares,OLS).下面的假定并非针对模型,而是针对OLS的这些假定通常称为古典假设。,零条件均值假定,该假设自动成立.,假设1、,假设2、随机误差项具有同方差性: Var (ui)=2 i=1,2, ,n -同方差假设(Homosadasticity),假设、 Cov(ui, uj)=0 ij i,j= 1,2, ,n -无

8、序列相关假设,或无自相关假设; (Non-Autocorrelation),该假设将会使估计、检验和预测简化,如果这个假设成立,参数的检验和利用模型进行预测将被简化,假设、称为高斯马尔柯夫(aussarkov)假定。在此假设条件下,可以得到关于回归系数的最小二乘估计及随机项方差估计的一些重要性质。,假设4、随机误差项与解释变量X之间同期不相关: Cov(Xi, ui)=0 i=1,2, ,n,假设、 uiN(0, u2 ) i=1,2, ,n,如果两者相关,就不可能把x对y的影响和u对y的影响区分开来.,在大样本条件下,这个假设成立;但对于小样本,这个假设不一定成立,这种情况下就无法进行检验和

9、预测,第二节 参数估计,一、样本回归方程 二、参数的普通最小二乘估计(OLS) 三、利用计算机应用软件进行参数估计,一、样本回归方程,满足古典假设条件下,称为总体回归线。,得一元线性回归方程,对于一元线性回归模型,两边取条件均值,,该方程只是理论上存在,所以称为理论回归方程。,现实情况往往是:通过抽样,得到总体样本,再通过样本 信息来估计总体回归函数(population regression function, PRF),表示在给定解释变量Xi条件下被解释变量Yi的期望轨迹,其中,0,1是未知参数,称为回归系数(regression coefficients)。,例:一个假想的社区中家庭消费

10、支出Y与每月家庭可支配收入X的一组调查数据如下:,作出该样本的散点图(scatter diagram),可以看出近似于一条直线.,如何找到一条直线,使这条直线尽可能地靠近所有的 点,即寻找一条可以尽好地拟合该散点图的直线,记该直线方程为:,或称为样本回归方程、经验回归方程 。,由于样本取自总体,所以该直线近似地代表总体回归线。该直线称为样本回归线(sample regression lines),,f(Xi)称为样本回归函数(sample regression function,SRF)、,样本回归模型:,由于方程中引入了随机项,成为计量经济模型,因此也称为样本回归模型(sample regr

11、ession model)。,回归分析的主要目的:根据样本回归函数SRF,估计总体回归函数PRF。,即,根据,估计,回归分析的主要目的是要通过样本回归函数(模型)SRF尽可能准确地估计总体回归函数(模型)PRF。 估计方法有多种,其中最广泛使用的是普通最小二乘法(ordinary least squares, OLS)。 为保证参数估计量具有良好的性质,通常对模型提出若干基本假设。 实际这些假设与所采用的估计方法紧密相关。,二、参数的普通最小二乘估计(OLS),给定一组样本观测值(Xi, Yi)(i=1,2,n)要求样本回归函数尽可能好地拟合这组值. 普通最小二乘法(Ordinary leas

12、t squares, OLS)给出的判断标准是:全部观测值的残差平方和,最小。,即在给定样本观测值之下,选择系数使上式达到最小,求最小二乘估计的方法,利用多元函数求极值的方法,令,经整理后得正规方程组,于是得 0 与 1 最小二乘估计,(a1),(a2),所求回归直线为:,由于参数的估计结果是通过最小二乘法得到的,故称为普通最小二乘估计量(ordinary least squares estimators),对样本(X1 ,Y1 ), ( X2 ,Y2 ), , ( Xn , Yn) 有以下记号,由最小二乘法确定的一元线性回归方程 有以下性质:,1、它是由所选取的样本唯一决定的。即对于一个给定

13、 的样本,只能估计出一个 ,但对于不同的样本, 估计出的 可能不相等,即它们是服从某种分布的 随机变量。,2、残差的均值为零,即,注意:,4、由 知, 。说明回归直线 通过样本的平均点( )。,3、残差 的大小无关,进而与 的大小无关, 即,、两点由正规方程组易见:,求最小二乘估计的一般步骤,依所知数据求出,所求回归直线为,以及,讲解例-,说明:公式应用时不一定非要用最终形式(a2),方便时可直接用(a1),三、利用计算机应用软件进行参数估计,1.用Excel软件进行回归分析 操作步骤为:先打开Excel 输入数据点击工具 点击数据分析选择回归点击确定 输入Y值输入区域输入X值输入区域 输入置

14、信度在输出选项选择输出区域 或新工作组表或新工作簿点击确定, 即可得到输出结果2.2.1。 我们来看实际的演示.看table2.2.1,2.用Eviews进行回归分析,(1)建立数据文件,先打开Eviews,从其主菜单中点File键,选择New,Workfile,在打开的选择框中,选Undated or irregular及数据个数,点击ok;,输入数据:点Quick键,选择Empty Group, 打开一空白表格,输入数据,(2)画散点图,点Quick,选Graph,输入画图用的变量x,y, 点击ok,在对话框中从Graph TYpe中选Scatter Diagram,点击ok,(3).OL

15、S估计,点Quick,选Estamate Equation,在Equation Specification选择框中输入y c x,点击ok,即可 得输出结果,这只是该输出结果的一种表达方式,通过该窗口 的功能键,可以得到其他表达形式,例如:点Resids键可以得到拟合与残差图;选View中的 Actual,Fitted,Residual Actual,Fitted,Residual Table功能就得到可用来进行残差分析的图;点击View中的 Presentation键,还可以得到输出结果的代数表达式,3.用SPSS进行回归分析,先建立数据文件,然后依次点击AnalyzeRegression Linear,打开对话框,定义好自变量(Independent)、 因变量(Dependent),点击OK,即可得到输出结果,三、参数估计的最大或然法(ML),最大或然法(Maximum Likelihood,简称ML),也称极大似然法,是不同于最小二乘法的另一种参数估计方法,是从最大或然原理出发发展起来的其他估计方法的基础。 基本原理: 对于最大或然法,当从模型总体随机抽取n组样本观测值后,最合理的参数估计量应该使得从模型中抽取该n组样本观测值的概率最大。,在满足基本假设条件下,对一元

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > PPT模板库 > PPT素材/模板

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号