应用回归分析第四版课后习题答案-全-何晓群-刘文卿

上传人:工**** 文档编号:559599380 上传时间:2023-08-23 格式:DOC 页数:10 大小:362KB
返回 下载 相关 举报
应用回归分析第四版课后习题答案-全-何晓群-刘文卿_第1页
第1页 / 共10页
应用回归分析第四版课后习题答案-全-何晓群-刘文卿_第2页
第2页 / 共10页
应用回归分析第四版课后习题答案-全-何晓群-刘文卿_第3页
第3页 / 共10页
应用回归分析第四版课后习题答案-全-何晓群-刘文卿_第4页
第4页 / 共10页
应用回归分析第四版课后习题答案-全-何晓群-刘文卿_第5页
第5页 / 共10页
点击查看更多>>
资源描述

《应用回归分析第四版课后习题答案-全-何晓群-刘文卿》由会员分享,可在线阅读,更多相关《应用回归分析第四版课后习题答案-全-何晓群-刘文卿(10页珍藏版)》请在金锄头文库上搜索。

1、实用回归分析第四版第一章 回归分析概述1.3 回归模型中随机误差项的意义是什么?答:为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一种随机方程,使得我们可以借助随机数学措施研究y与x1,x2.xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来精确阐明,随机误差项可以概括表达由于人们的结识以及其她客观因素的局限而没有考虑的种种偶尔因素。1.4 线性回归模型的基本假设是什么?答:线性回归模型的基本假设有:1.解释变量x1.x2.xp是非随机的,观测值xi1.xi2.xip是常数。2.等方差及不有关的假定条件为E(i)=0 i=1,2. Cov(i,j)=23.

2、正态分布的假定条件为互相独立。4.样本容量的个数要多于解释变量的个数,即np.第二章 一元线性回归分析思考与练习参照答案 2.1 一元线性回归有哪些基本假定?答: 假设1、解释变量X是拟定性变量,Y是随机变量; 假设2、随机误差项具有零均值、同方差和不序列有关性: E(i)=0 i=1,2, ,n Var (i)=s2 i=1,2, ,n Cov(i, j)=0 ij i,j= 1,2, ,n 假设3、随机误差项与解释变量X之间不有关: Cov(Xi, i)=0 i=1,2, ,n 假设4、服从零均值、同方差、零协方差的正态分布 iN(0, s2 ) i=1,2, ,n2.3 证明(2.27式

3、),Sei =0 ,SeiXi=0 。证明:其中:即: Sei =0 ,SeiXi=02.5 证明是0的无偏估计。证明:2.6 证明证明:2.7 证明平方和分解公式:SST=SSE+SSR证明:2.8 验证三种检查的关系,即验证:(1);(2)证明:(1)(2)2.9 验证(2.63)式:证明:其中:2.10 用第9题证明是s2的无偏估计量证明:第三章1.一种回归方程的复有关系数R=0.99,样本决定系数R2=0.9801,我们能判断这个回归方程就很抱负吗?答:不能断定这个回归方程抱负。由于:1. 在样本容量较少,变量个数较大时,决定系数的值容易接近1,而此时也许F检查或者有关回归系数的t检查

4、,所建立的回归方程都没能通过。2. 样本决定系数和复有关系数接近于1只能阐明Y与自变量X1,X2,Xp整体上的线性关系成立,而不能判断回归方程和每个自变量是明显的,还需进行F检查和t检查。3. 在应用过程中发现,在样本容量一定的状况下,如果在模型中增长解释变量必然使得自由度减少,使得 R2往往增大,因此增长解释变量(特别是不明显的解释变量)个数引起的R2的增大与拟合好坏无关。2.被解释变量的盼望值与解释变量的线性方程为: (3-2)称为多元总体线性回归方程,简称总体回归方程。对于组观测值,其方程组形式为: (3-3)即其矩阵形式为=+即 (3-4)其中为被解释变量的观测值向量;为解释变量的观测

5、值矩阵;为总体回归参数向量;为随机误差项向量。多元回归线性模型基本假定:课本P57第四章4.3 简述用加权最小二乘法消除一元线性回归中异方差性的思想与措施。答:一般最小二乘估计就是寻找参数的估计值使离差平方和达极小。其中每个平方项的权数相似,是一般最小二乘回归参数估计措施。在误差项等方差不有关的条件下,一般最小二乘估计是回归参数的最小方差线性无偏估计。然而在异方差的条件下,平方和中的每一项的地位是不相似的,误差项的方差大的项,在残差平方和中的取值就偏大,作用就大,因而一般最小二乘估计的回归线就被拉向方差大的项,方差大的项的拟合限度就好,而方差小的项的拟合限度就差。由OLS求出的仍然是的无偏估计

6、,但不再是最小方差线性无偏估计。因此就是:对较大的残差平方赋予较小的权数,对较小的残差平方赋予较大的权数。这样对残差所提供信息的重要限度作一番校正,以提高参数估计的精度。加权最小二乘法的措施:4.4简述用加权最小二乘法消除多元线性回归中异方差性的思想与措施。答:运用加权最小二乘法消除多元线性回归中异方差性的思想与一元线性回归的类似。多元线性回归加权最小二乘法是在平方和中加入一种合适的权数 ,以调节各项在平方和中的作用,加权最小二乘的离差平方和为: (2)加权最小二乘估计就是寻找参数的估计值使式(2)的离差平方和达极小。所得加权最小二乘经验回归方程记做 (3) 多元回归模型加权最小二乘法的措施:

7、一方面找到权数,理论上最优的权数为误差项方差的倒数,即 (4)误差项方差大的项接受小的权数,以减少其在式(2)平方和中的作用; 误差项方差小的项接受大的权数,以提高其在平方和中的作用。由(2)式求出的加权最小二乘估计就是参数的最小方差线性无偏估计。一种需要解决的问题是误差项的方差是未知的,因此无法真正按照式(4)选用权数。在实际问题中误差项方差一般与自变量的水平有关(如误差项方差随着自变量的增大而增大),可以运用这种关系拟定权数。例如与第j个自变量取值的平方成比例时, 即=k时,这时取权数为 (5)更一般的状况是误差项方差与某个自变量(与|ei|的级别有关系数最大的自变量)取值的幂函数成比例,

8、即=k,其中m是待定的未知参数。此时权数为 (6)这时拟定权数 的问题转化为拟定幂参数m的问题,可以借助SPSS软件解决。第五章5.3 如果所建模型重要用于预测,应当用哪个准则来衡量回归方程的优劣?答:如果所建模型重要用于预测,则应使用记录量达到最小的准则来衡量回归方程的优劣。5.4 试述迈进法的思想措施。答:迈进法的基本思想措施是:一方面因变量Y对所有的自变量x1,x2,.,xm建立m个一元线性回归方程, 并计算F检查值,选择偏回归平方和明显的变量(F值最大且不小于临界值)进入回归方程。每一步只引入一种变量,同步建立m1个二元线性回归方程,计算它们的F检查值,选择偏回归平方和明显的两变量变量

9、(F值最大且不小于临界值)进入回归方程。在拟定引入的两个自变量后来,再引入一种变量,建立m2个三元线性回归方程,计算它们的F检查值,选择偏回归平方和明显的三个变量(F值最大)进入回归方程。不断反复这一过程,直到无法再引入新的自变量时,即所有未被引入的自变量的F检查值均不不小于F检查临界值F(1,n-p-1),回归过程结束。5.5 试述后退法的思想措施。答:后退法的基本思想是:一方面因变量Y对所有的自变量x1,x2,.,xm建立一种m元线性回归方程, 并计算t检查值和F检查值,选择最不明显(P值最大且不小于临界值)的偏回归系数的自变量剔除出回归方程。每一步只剔除一种变量,再建立m1元线性回归方程

10、,计算t检查值和F检查值,剔除偏回归系数的t检查值最小(P值最大)的自变量,再建立新的回归方程。不断反复这一过程,直到无法剔除自变量时,即所有剩余p个自变量的F检查值均不小于F检查临界值F(1,n-p-1),回归过程结束。第六章消除多重共线性的措施7.2岭回归的定义及记录思想是什么?答:岭回归法就是以引入偏误为代价减小参数估计量的方差的一种回归措施,其记录思想是对于(XX)-1为奇异时,给XX加上一种正常数矩阵D, 那么XX+D接近奇异的限度就会比XX接近奇异的限度小得多,从而完毕回归。但是这样的回归必然丢失了信息,不满足blue。但这样的代价有时是值得的,由于这样可以获得与专业知识相一致的成

11、果。7.3 选择岭参数k有哪几种措施?答:最优是依赖于未知参数和的,几种常用的选择措施是: 岭迹法:选择的点能使各岭估计基本稳定,岭估计符号合理,回归系数没有不合乎经济意义的绝对值,且残差平方和增大不太多;方差扩大因子法:,其对角线元是岭估计的方差扩大因子。要让;残差平方和:满足成立的最大的值。7.4 用岭回归措施选择自变量应遵循哪些基本原则?答:岭回归选择变量一般的原则是:1. 在岭回归的计算中,我们一般假定波及矩阵已经中心化和原则化了,这样可以直接比较原则化岭回归系数的大小。我们可以剔除掉原则化岭回归系数比较稳定且绝对值很小的自变量;2. 当k值较小时,原则化岭回归系数的绝对值并不很小,但是不稳定,随着k的增长迅速趋近于零。像这样岭回归系数不稳定、震动趋于零的自变量,我们也可以予以剔除;3. 去掉原则化岭回归系数很不稳定的自变量。如果有若干个岭回归系数不稳定,究竟去掉几种,去掉那几种,要根据去掉某个变量后重新进行岭回归分析的效果来拟定。8章主成分回归建模的思想与环节偏最小二乘建模的思想与环节两个论述,在课本上

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 办公文档 > 解决方案

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号