spss中的回归分析

上传人:平*** 文档编号:46215003 上传时间:2018-06-24 格式:PPT 页数:134 大小:2.54MB
返回 下载 相关 举报
spss中的回归分析_第1页
第1页 / 共134页
spss中的回归分析_第2页
第2页 / 共134页
spss中的回归分析_第3页
第3页 / 共134页
spss中的回归分析_第4页
第4页 / 共134页
spss中的回归分析_第5页
第5页 / 共134页
点击查看更多>>
资源描述

《spss中的回归分析》由会员分享,可在线阅读,更多相关《spss中的回归分析(134页珍藏版)》请在金锄头文库上搜索。

1、5.7 回归分析线性回归曲线估计二分量逻辑分析多项式逻辑分析标称变量分析概率回归非线性回归加权估计2阶段最小二乘法5-7-1 线性回归模型总体回归模型j也被称为偏回归系数(partial regression coefficients),表示 在其他解释变量保持不变的情况下,Xj每变化1个单位时,Y 的均值E(Y)的变化。样本回归函数v参数估计最小二乘法v模型统计推断检验拟合优度检验方程显著性检验(F检验)变量显著性检验(t检验)(1)拟合优度检验回归方程的拟合优度检验就是要检验样本 数据聚集在样本回归直线周围的密集程度,从 而判断回归方程对样本数据的代表程度。 回归方程的拟合优度检验一般用调

2、整判定系数R2 实现。该统计量的值越接近于1越好。(注:在一元 线性回归中拟合优度的检验可用判定系数R2实现)(2)回归方程的显著性检验(F检验)回归方程的显著性检验是对因变量与所有 自变量之间的线性关系是否显著的一种假设检 验。回归方程的显著性检验一般采用F检验, 利用方差分析的方法进行。 F(3)回归系数的显著性检验(t检验)所谓回归系数的显著性检验,就是根据样 本估计的结果对总体回归系数的有关假设进行 检验。之所以对回归系数进行显著性检验,是因 为回归方程的显著性检验只能检验所有回归系 数是否同时与零有显著性差异,它不能保证回 归方程中不包含不能较好解释说明因变量变化 的自变量。因此,可

3、以通过回归系数显著性检 验对每个回归系数进行考察。 回归参数显著性检验的基本步骤。 提出假设 计算回归系数的t统计量值 根据给定的显著水平确定临界值, 或者计算t值所对应的p值 作出判断H0:j =0 (j=1,2k ) 一、一元线性回归 y=a+bx例5-7-1 已知我国分地区家庭人均食品支出、人均收入。试作一元 线性回归分析。(e5-7-1) 操作步骤:使用系统默认选择项进行线性回归分析Analyze-Regression-Linear分析回归线性 Dependent:存放因变量 Independent:存放自变量 输出结果及结果分析变量引入或剔出表:Model 1 引入变量 income

4、, 用强迫输入法Enter。 模型摘要表相关系数R=0.923, 判定系数R2=0.852,调整判定系数R2=0.847,估计值的标准误为73.83注:在一元线性回归中可用判定系数R2来判断模型的拟合 度。调整判定系数R2的值越大,模型的拟合优度越好。方差分析表回归的均方(RegressionMean Square)=878382.334,剩余(残差) 的均方(Residual-Mean square)=5450.755, F=161.149 P=0.000.可以 认为这两个变量之间有直线关系.注:H0为模型线性关系不成立,即b=0变量显著性检验(t 检验)回归系数:t=12.694, p=0

5、.00, 拒绝原假设,显著不为0常数项:t=-0.781,p=0.441,接受原假设,常数项与0没有显著差异。注意:在实际中一般不以t检验决定常数项是否保留在模型中,而是从经济意 义方面分析回归线是否应该通过原点。回归方程:常数项=53.086, 回归系数=0.422, 则线性回归方程为:y=53.086+0.422x 二、多元回归分析1、从“Analyze” (分析)“Regression”(回归) “Linear”(线性),打开 Linear线性回归主对话框 。2、在左侧的源变量栏中选择一数值变量作为因变量进入Dependent栏中, 选择一个或更多的变量作为自变量进入Independen

6、t(s)栏中。3、如果要对不同的自变量采用不同的引入方法,可利用“Previous” 与 “Next” 按钮把自变量归类到不同的自变量块(Block)中,然后对不同的变量子集 选用不同的引入方法(Method)。Enter(进入):强迫引入法,默认选择项。定义的全部自变量均引入方程。Remove(移去):强迫剔除法。定义的全部自变量均删除。Forward(向前):向前引入法。自变量由少到多一个一个引入回归方程 ,直到不能按检验水准引入新的变量为止。该法的缺点是:当两个变量一起时效 果好,单独时效果不好,有可能只引入其中一个变量,或两个变量都不能引入。Backward(向后):向后剔除法。自变量

7、由多到少一个一个从回归方程中 剔除,直到不能按检验水准剔除为止,能克服向前引入法的缺点。当两个变量一 起时效果好,单独时效果不好,该法可将两个变量都引入方程。Stepwise(逐步):逐步引入一剔除法。将向前引入法和向后剔除法结合起 来,在向前引入的每一步之后都要考虑从已引入方程的变量中剔除作用不显著者 ,直到没有一个自变量能引入方程和没有一个自变量能从方程中剔除为止。缺点 同向前引入法,但选中的变量比较精悍。说明:为弥补各种选择方法和各种标准的局限性,不妨分 别用各种方法和多种引入或剔除处理同一问题,若一些变量常 被选中,它们就值得重视。 4、 Selection variable(选择变量

8、):可从源变量栏中 选择一个变量,单击Rule后,通过该变量大于、小于或等于某 一数值,选择进入回归分析的观察单位。5、Case Labels(个案标签):在左侧的源变量框中选择 一变量作为标签变量进入 Case Labels框中。6、Statistics(统计)对话框单击“Statistics”按钮,进入统计对话框如图:Estimates(默认选择项):回归系数的估计值(B)及其标准误(StdError) 、常数(Constant);标准化回归系数(Beta);B的t值及其双尾显著性水平 (Sig.)。Model fit(默认选择项):列出进入或从模型中剔除的变量;显示下列拟 合优度统计量:

9、复相关系数(R)、判定系数(R2)、调整 R2(Adjusted R Square)、估计值的标准误以及方差分析表。Confidence intervals:回归系数 B的 95可信区间(95Confidence interval for B)。Descriptives:变量的均数、标准差、相关系数矩阵及单尾检验。Covariance matrix:方差协方差矩阵。R sqared change:R2和 F值的改变,以及方差分析 P值的改变。Part and partial correlations: 显示方程中各自变量与因变量的零阶相关( Zero一order,即Pearson相关)、偏相关

10、(Partial)和部分相关(part)。进行此项 分析要求方程中至少有两个自变量。Collinearity diagnostic(共线性诊断)。显示各变量的容差(Tolerance) 、方差膨胀因子(VIC,Variance Inflation Factor)和共线性的诊断表。容差(Tolerance)是不能由方程中其它自变量解释的方差所占的构成比。所有进入方程的变量的容差必须大于默认的容差水平值(Tolerance:0.0001)。该值愈小,说明该自变量与其他自变量的线性关系愈密切。该值的倒数为方差膨胀因子(Variance Inflation Factor)。当自变量均为随机变量时,若它

11、们之间高度相关,则称自变量间存在共线性。在多元线性回归时,共线性会使参数估计不稳定。逐步选择变量是解决共线性的方法之一。DurbinWaston:用于随机误差项的分析,以检验回归模型 中的误差项的独立性。如果误差项不独立,那么对回归模型的任何 估计与假设所做出的结论都是不可靠的。 计算DW值 给定,由n和k的大小查DW分布表,得临界值dL和dU 比较、判断0”按钮。(4)Method:协变量筛选方法选项。可选择七种筛选协变量方法的其中之一。 Enter:所有自变量强制进入回归方程。Forward:Conditional:以假定参数为基础作似然比概率检验,向前逐步选择自变量。Forward:LR

12、:以最大局部似然为基础作似然比概率检验,向前逐步选择自变量。Forward:Wald:作 Wald概率统计法,向前逐步选择自变量。Backward:Conditional:以假定参数为基础作似然比概率检验,向后逐步选择自变量。Backward:LR:以最大局部似然为基础作似然比概率检验,向后逐步选择自变量。Backward:Wald:作 Wald概率统计法,向后逐步选择自变量 。 (5)“Select Variable” :放入将要按规则选择观察值的变量。“ Rule”:规则按钮。激活 Set Rule对话框。设定规则:选择 变量等于,不等于,小于,小于或等于,大于,大于或等于某值。(6)“

13、Categorical”:定义分类协变量按钮。激活定义分类协变量 对话框,可定义一个或多个字符型和数值型分类变量。(7)“Save”:储存新变量按钮。激活储存新变量对话框。(8)“ Options”:选择按钮。激活选择对话框。2、Define Categorical Variables定义分类协变量对话框。(1)Covariates:协变量栏,列出源协变量。(2) CategoricalCovariates:分类协变量栏,用于放入分类协变量 。(3)Change:改变对照方法选项。Contrast栏,对照方法选项。Indicator:比较显示是否具有同类效应,为系统默认值。Deviation:

14、除参照分类外,各分类与总效应比较。Simple:除参照分类外,各分类与参照分类比较。Difference:逆Helmert对照,除第一分类外,各分类与以前平 均分类效应比较。Helmert:除最后分类外,各分类与以后平均分类效应比较。Repeated:除第一分类外,各分类与以前分类效应比较。Polynomial:假定分类等距,该分类仅用于数值型变量。Reference Category:参照方法选项。Last:最后的分类为参照分类,系统默认值。First:第一分类为参照类.3Save New Variables(储存新变量)对话框(l)Predicted Values:预测值选项。Probab

15、ilities:每个变量的事件发生的预测概率。Group membership:基于变量的预测概率归组。(2)Residuals:残差选项。Unstandardized:非标准化残差。观察值与预测值之差。Logit:Logit单位化残差。使用Logit单位的预测模型残差。Studentized:学生化残差。某观察值删除时,模型偏差的改变量。Standardized:标准化残差。非标准化残差除以其标准差。Deviance:偏差。基于模型偏差的残差。(3)Influence:预测值影响量度选项。Cook:Cook上影响统计量。当删除某观察值时,全部观察值残 差改变的量度。Leverage valu

16、es:Leverage值。每个观察值对模型拟合优度的相 对影响。Dfbeta(s):Beta的差值。当删除某观察值时,回归系数的改变量 。 4Options选择项对话框。Statistics and Plots 统计量和图形选项。Classification plots:显示有关因变量观察值与预测值的分类 图。Correlations of estimates:显示模型中参数估计的相关矩阵 。HosmerLemeshow goodnessoffit:估计模型拟合优度, 特别是在较多协变量或协变量是连续变量时。Iteration history:在参数估计过程中,显示每次迭代的系数 和对数似然比统计量。Casewise listing of residuals:显示非标准化残差、预测概率 、观察和预测组关系。Outliers outside,显示某个标准差以外的奇异值。默认值是 2个标准差。All cases:

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 高等教育 > 大学课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号