LASSO算法的总结与思考

上传人:工**** 文档编号:459166814 上传时间:2023-05-13 格式:DOCX 页数:2 大小:66.31KB
返回 下载 相关 举报
LASSO算法的总结与思考_第1页
第1页 / 共2页
LASSO算法的总结与思考_第2页
第2页 / 共2页
亲,该文档总共2页,全部预览完了,如果喜欢就下载吧!
资源描述

《LASSO算法的总结与思考》由会员分享,可在线阅读,更多相关《LASSO算法的总结与思考(2页珍藏版)》请在金锄头文库上搜索。

1、(1)(2)(3)(4)LASSO 方法的总结与思考统计学习中如果一味提高对训练数据的拟合能力,模型复杂度也会相应提高 这种情况下训练出的方程总是能很好的拟合训练数据,得到的代价函数可能非常 接近于 0,但这样的曲线千方百计的去拟合训练数据,通常会导致它无法泛化到 新的数据样本中,这类情况被叫做过拟合(overfitting)。例如在生物医学领域中, 数据的维度很高,但由于收集数据需要实验代价高昂,可用的训练数据却相当少, 很容易发生过拟合问题3。对于过拟合,可以通过人工筛选去除某些变量,留下关键的变量,但是在剔 除变量的时候,就舍弃了一部分信息,可能会对最终的预测结果造成影响。另一 种方法是

2、正则化,在经验风险的基础上加一个正则化项,降低某些参数的影响, 事实上,这些参数的值越小,对应更加简单的函数,就不易发生过拟合的问题。 常见的正则化方法有岭回归和LASSO回归,它们间的区别在于,岭回归是一个 系数收缩的连续的过程,并且因此更加稳定,但任何系数都不为0,因此不能使 模型降维。LASSO(Least absolute shrinkage and selection operator)算法于 1996 年由Robert Tibshirani首次提出,这种方法在保留了岭回归的优点的同时,可以 将某些参数变为 0,使模型更简洁2。对最简单的线性回归模型:f (x) = w jXj 二

3、COTxj=1然后如式(2)按照经验风险的最小化策略,求解多项式系数:L(w) = - (y f (x )=1 |y XW I2n i i ni=1其中x G R是输入x的观测值,y G R是输出y的观测值。该问题具有解析 ii解:w = (X T X )1 X T y如果变量个数p大于数据点的个数n的话,矩阵XTX将会不是满秩的,会 有无穷多个解。如果从所有可行解里随机选一个的话,很可能并不是真正好的解, 发生过拟合。岭回归是在经验风险上再添加一个L正则化项:2L(W) =|y Xw|2+MW|2此时问题的解为:从数学上可证明XtX +九I是可逆的,故岭回归可以避免过拟合。不过,岭回 归并不

4、具有产生稀疏解的能力,从计算量上来说并没有得到改观。对于LASSO回归,用L正则化项代替L,则有:12(6)L(w)二 n|y Xw|2 +九|叭为了便于描述两种正则化方法的几何意义,考虑两维的情况,可在(wi, W2)平面上画出目标函数与约束区域图像如图 1 所示:2WWW7图 1 LASSO 和岭回归的估计图可以看到,LASSO与岭回归图像的不同就在于LASSO中和每个坐标轴相交 的地方都有“角”出现,而目标函数的测地线除非位置摆得非常好,大部分时候都会 在角的地方相交,角的位置为产生稀疏性,例如图中的相交点就有w二0。i 扩展到三维空间内,会有一条棱和目标函数相交,所以 LASSO 能够

5、产生稀 疏性,对变量空间进行压缩。参考文献1 R. Tibshirani. Regression shrinkage and selection via the lasso. Journal of theRoyal Statistical Society, Series B, 58(1):267288, 19962 Friedman J, Hastie T, Tibshirani R. Regularization Paths for Generalized Linear Models via Coordinate DescentJ. Journal of Statistical Software, 2010, 33(01):1-22.张靖,胡学钢,张玉红,等.K-split Lasso:有效的肿瘤特征基因选择方法J.计 算机科学与探索, 2012, 6(12):1136-1143.

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 建筑/环境 > 建筑资料

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号