回归分析(线性回归、逻辑回归、多项式回归、岭回归、lasso回归)

上传人:第*** 文档编号:61707232 上传时间:2018-12-10 格式:PDF 页数:107 大小:2.72MB
返回 下载 相关 举报
回归分析(线性回归、逻辑回归、多项式回归、岭回归、lasso回归)_第1页
第1页 / 共107页
回归分析(线性回归、逻辑回归、多项式回归、岭回归、lasso回归)_第2页
第2页 / 共107页
回归分析(线性回归、逻辑回归、多项式回归、岭回归、lasso回归)_第3页
第3页 / 共107页
回归分析(线性回归、逻辑回归、多项式回归、岭回归、lasso回归)_第4页
第4页 / 共107页
回归分析(线性回归、逻辑回归、多项式回归、岭回归、lasso回归)_第5页
第5页 / 共107页
点击查看更多>>
资源描述

《回归分析(线性回归、逻辑回归、多项式回归、岭回归、lasso回归)》由会员分享,可在线阅读,更多相关《回归分析(线性回归、逻辑回归、多项式回归、岭回归、lasso回归)(107页珍藏版)》请在金锄头文库上搜索。

1、School of Information and Mathematics 回归学习回归学习 2 of 36 内容概要 1、线性回归 2、多元线性回归 3、代价函数 4、逻辑回归 3 of 36 回归学习 回归属于有监督学习中的一种方法。该方法 的核心思想是从连续型统计数据中得到数学 模型,然后将该数学模型用于预测或者分类。 该方法处理的数据可以是多维的。 回归是由达尔文的表兄弟Francis Galton发明的。Galton于1877年完成了第一 次回归预测,目的是根据上一代豌豆的种子(双亲)的尺寸来预测下一代豌豆 种子(孩子)的尺寸(身高)。Galton在大量对象上应用了回归分析,甚至包

2、括人的身高。他得到的结论是:如果双亲的高度比平均高度高,他们的子女也 倾向于平均身高但尚不及双亲,这里就可以表述为:孩子的身高向着平均身高 回归。Galton在多项研究上都注意到了这一点,并将此研究方法称为回归。 4 of 36 线性回归介绍 例子 假如你刚刚搬到学校,需要知道在你学校周围的房价,设计 一个数据回归程序。 距 离 学 校 的 距距 离 学 校 的 距 离离 卧 室 数 目卧 室 数 目 房 租房 租 2.30km 1 1600 5.06km 2 2000 4.33km 2 2100 1.09km 1 1500 1.50km 1 ? 2.70km 1.5 ? 5 of 36 例子

3、 假如你刚刚搬到学校,需要知道在你学校周围的房价,设 计一个数据回归程序。 距离距离 房房 租租 1.0/距离距离 房间房间 房房 租租 线性回归介绍 6 of 36 回归学习 问题引入问题引入 面积(m2) 销售价钱 (万元) 123 250 150 320 87 160 102 220 假设有一个房屋销售的数据如下: 如果来了一个新的面积,假设在销售价钱的 记录中没有的,怎么处理? 解决方法:用一条曲线去尽量准的拟合这些 数据,然后如果有新的输入过来,我们可以 在将曲线上这个点对应的值返回。如果用一 条直线去拟合,可能是下面的样子: 7 of 36 回归学习 常用概念和符号: 房屋销售记录

4、表:房屋销售记录表:训练集(training set)或者训练数据 (training data), 是我们流程中的输入数据,一般称为x 房屋销售价钱房屋销售价钱:输出数据,一般称为y 拟合的函数(或者称为假设或者模型)拟合的函数(或者称为假设或者模型):一般写做 y = h(x) 训练数据的条目数训练数据的条目数(#training set),(#training set),:一条训练数据是 由一对输入数据和输出数据组成的输入数据的维度n (特征的个 数,#features) 这个例子的特征是两维的,结果是一维的。然而回归方法能 够解决特征多维,结果是一维多离散值或一维连续值的问题。 8 o

5、f 36 回归学习 学习过程学习过程 首先给出一个输入数据,算法通过一系列的过程得到一个估计的函数函数,这个函数 有能力对没有见过的新数据给出一个新的估计,也被称为构建一个模型。就如同上 面的线性回归函数。 一个典型的机器学习的过程 9 of 36 回归学习 线性回归(Linear regression)是利用称为线性 回归方程的最小平方函数对一个或多个自变量和因 变量之间关系进行建模的一种回归分析. 线性回归属于监督学习监督学习,因此方法和监督学习应 该是一样的,先给定一个训练集,根据这个训练集 学习出一个线性函数线性函数,然后测试这个函数训练的 好不好(即此函数是否足够拟合训练集数据),挑

6、 选出最好的函数(cost function最小)即可. 10 of 36 线性回归 注意: (1)因为是线性回归,所以学习到的函数为线性函数,即直线函数 (2)因为是单变量,因此只有一个x; 单变量线性回归模型: X:feature,h(x):hypothesis; 问题:线性函数拟合的好不好? 11 of 36 简单线性回归(Simple Linear Regression) 1 很多做决定的过程通常是根据两个或者多个变量之间的关系 2 回归分析(regression analysis):用来建立方程模拟两个或者 多个变量之间如何关联 3 被预测的变量叫做:因变量(dependent va

7、riable), y, 输出 (output) 4 被用来进行预测的变量叫做: 自变量(independent variable), x, 输入(input) 12 of 36 正向线性关系 13 of 36 负向线性关系: 14 of 36 无关系: 15 of 36 估估计计的的简单线简单线性回性回归归方程方程 y=b0+b1x 这个方程叫做估计线性方程(estimated regression line) 其中,b0是估计线性方程的纵截距,b1是估计线性方程的斜率 ,y是在自变量x等于一个给定值的时候,y的估计值。 使用场景: 一般来说,只要觉得数据有线性关系,首先选择 LinearRe

8、gression类。如果发现拟合或者预测的不好,再考虑 用其他的线性回归库。如果是学习线性回归,推荐先从这个类开 始第一步的研究。 16 of 36 线线性回性回归归分析流程:分析流程: 17 of 36 关于偏差的假定 1、 是一个随机的变量,均值为0 2、 的方差(variance)对于所有的自变量x是一样的 3 、的值是独立的 4、 满足正态分布 18 of 36 简单线性回归模型举例 汽车卖家做电视广告数量与卖出的汽车数量: 19 of 36 如何画出适合简单线性回归模型的最佳回归线? 20 of 36 使sum of squares最小 计算过程 21 of 36 预测预测 假设有一

9、周广告数量为6,预测的汽车销售量是多少? x_given = 6 Y_hat = 5*6 + 10 = 40 22 of 36 多元线性回归 1. 与简单线性回归区别(simple linear regression):多个自变量(x) 2. 多元回归模型 y=0x1+2x2+ +pxp+ 其中:0,2 p是参数值,是误差值 3. 多元回归方程 E(y)=0x1+2x2+ +pxp 4. 估计多元回归方程 y_hat=b0bx1+b2x2+ +bpxp 一个样本用来计算0,2 p的点估计b0, b1, b2, bp 23 of 36 5. 估计流程 (与简单线性回归类似) 24 of 36 6

10、. 估计方法 使sum of squares最小 运算与简单线性回归类似,涉及到线性代数和矩阵代数的运算 25 of 36 7. 例子 一家快递公司送货:X1:运输里程 X2:运输次数 Y:总运输时间 Time = b0+ b1*Miles + b2 * Deliveries Time = -0.869 + 0.0611 Miles + 0.923 Deliveries 26 of 36 线性回归代价函数 代价函数(有的地方也叫损失函数,Loss Function)在机 器学习中的每一种算法中都很重要,因为训练模型的过程就是优 化代价函数的过程,代价函数对每个参数的偏导数就是梯度下降 中提到的

11、梯度,防止过拟合时添加的正则化项也是加在代价函数 后面的。 一个好的代价函数需要满足两个最基本的要求:能够评价模型的 准确性,对参数可微。 27 of 36 假设有训练样本(x, y),模型为h,参数为。h() = Tx(T表示 的转置)。 (1)概况来讲,任何能够衡量模型预测出来的值h()与真实值y 之间的差异的函数都可以叫做代价函数C(),如果有多个样本, 则可以将所有代价函数的取值求均值,记做J()。 (2)首先确定模型h,然后训练模型的参数。训练参数的过程 就是不断改变,从而得到更小的J()的过程。理想情况下,当我 们取到代价函数J的最小值时,就得到了最优的参数,记为: 当J() =

12、0,表示模型完美的拟合了观察的数据,没有任何误差。 28 of 36 (3)在优化参数的过程中,最常用的方法是梯度下降,这里的 梯度就是代价函数J()对1, 2, ., n的偏导数。 通过以上内容,可以总结得出以下关于代价函数的性质: 对于每种算法来说,代价函数不是唯一的; 代价函数是参数的函数; 总的代价函数J()可以用来评价模型的好坏,代价函数越小说 明模型和参数越符合训练样本(x, y); J()是一个标量; 选择代价函数时,最好挑选对参数可微的函数(全微分存在 ,偏导数一定存在) 29 of 36 线性回归 代价函数(Cost Function):对假设的函数进行评价,cost fun

13、ction越小的函数,说明拟合训练数据拟合的越好; 30 of 36 线性回归 在线性回归中,最常用的代价函数(Cost Function)是均方误差 (Mean squared error),具体形式为: 其中: 表示向量x中的第i个元素; 表示向量y中的第i个元素; 用参数和x预测出来的y值; m为训练集的数量; 例:给定数据集(1,1)、(2,2)、(3,3) 则x = 1;2;3,y = 1;2;3 (此处的语法为Octave语言的语法,表示3*1的矩阵) 如果我们预测theta0 = 0,theta1 = 1,则h(x) = x,则cost function: J(0,1) = 1/

14、(2*3) * (h(1)-1)2+(h(2)-2)2+(h(3)-3)2 = 0; 如果我们预测theta0 = 0,theta1 = 0.5,则h(x) = 0.5x,则cost function: J(0,0.5) = 1/(2*3) * (h(1)-1)2+(h(2)-2)2+(h(3)-3)2 = 0.58; 31 of 36 代价函数与参数 代价函数与参数 总的代价函数J是h()和y的函数,即J=f(h(), y)。又因为y都是 训练样本中给定的,h()由决定,所以,最终还是模型参数的 改变导致了J的改变。对于不同的,对应不同的预测值h(),也 就对应着不同的代价函数J的取值。变化

15、过程为: 引起了h()的改变,进而改变了J()的取值。 32 of 36 为了更直观的看到参数对代价函数的影响,举个简单的例子: 有训练样本(0, 0), (1, 1), (2, 2), (4, 4),即4对训练样本,每个样 本对中第1个数表示x的值,第2个数表示y的值。这几个点很明显 都是y=x这条直线上的点。如下图: 图:不同参数可以拟合出不同的直线 代价函数与参数 33 of 36 常数项为0,所以可以取0=0,然后取不同的1,可以得到不同的 拟合直线。当1=0时,拟合的直线是y=0,即蓝色线段,此时距 离样本点最远,代价函数的值(误差)也最大;当1=1时,拟合 的直线是y=x,即绿色线

16、段,此时拟合的直线经过每一个样本点 ,代价函数的值为0。 代价函数与参数 34 of 36 通过下图可以查看随着1的变化,J()的变化情况,当1=1时,代 价函数J()取到最小值。因为线性回归模型的代价函数(均方误 差)的性质非常好,因此也可以直接使用代数的方法,求J()的 一阶导数为0的点,就可以直接求出最优的值(正规方程法)。 图:代价函数J()随参数的变化而变化 代价函数与参数 35 of 36 代价函数与参数 下图可以看做是代价函数J()与参数做出的图,曲面上的一个点(0, 1, J(), 有无数条切线,在这些切线中与x-y平面(底面,相当于0, 1)夹角最大的那条切 线就是该点梯度的方向,沿该方向移动,会产生最大的高度变化

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 办公文档 > 解决方案

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号