对学习算法的几乎处处稳定性与泛化能力的理解与思考

上传人:鲁** 文档编号:457416276 上传时间:2023-01-09 格式:DOCX 页数:3 大小:20.46KB
返回 下载 相关 举报
对学习算法的几乎处处稳定性与泛化能力的理解与思考_第1页
第1页 / 共3页
对学习算法的几乎处处稳定性与泛化能力的理解与思考_第2页
第2页 / 共3页
对学习算法的几乎处处稳定性与泛化能力的理解与思考_第3页
第3页 / 共3页
亲,该文档总共3页,全部预览完了,如果喜欢就下载吧!
资源描述

《对学习算法的几乎处处稳定性与泛化能力的理解与思考》由会员分享,可在线阅读,更多相关《对学习算法的几乎处处稳定性与泛化能力的理解与思考(3页珍藏版)》请在金锄头文库上搜索。

1、对“学习算法的几乎处处稳定性与泛化能力”的理解与思考该篇读书报告是针对Kutin和Niyogi的论文Almost-everywhere algorithmic stability and generalization error。为了更好的理解这篇论文,我还通过查阅相关资料了解了一些统计机器学习的相关概念。下面我将通过问答的方式,对我的论文阅读收获进行总结。首先,为什么要提出学习算法稳定性的概念?长期以来,泛化性和泛化误差是通过学习机器(或者称训练模型)的复杂度来衡量,代表性的如由Vapnik和Chervonenkis所发展的统计机器学习理论。但是这种方法引入了VC维或VC熵的理论,在学习机器

2、的复杂度越高的情况下,VC维的计算也就更加复杂,该方法的局限性也随之体现出来了。近年来,基于学习算法本身的研究方法被提出来,这种方法通过引入算法稳定性的概念来对学习算法的泛化界做定量的估计,而不会涉及学习机器本身的VC维或者VC熵。总结而言,经典的统计学习理论是从机器的角度研究学习问题的,即研究当机器满足什么条件时学习算法具有泛化性,而学习算法的稳定性理论是从算法自身的角度研究泛化性,这是一种全新的研究学习问题的途径。其次,学习算法稳定性是如何应用到对算法泛化能力度量的?在回答这个问题之前,先介绍经典的统计机器学习方法如何度量算法的泛化能力。回忆一个概念,一个学习算法称为具有泛化性,如果对于任

3、何概率分布P,任意的训练集S和任何 0,下述等式limmPIfs-ISfs=0 (1)一致成立。式中,Ifs为期望风险(误差),Isfs为经验风险(误差)。根据这一定义,一个学习算法具有泛化性当且仅当经验误差在概率意义上收敛于期望误差。泛化性的概念是定性地描述了一个学习算法的预测能力。但从应用的角度来说,需要定量地把握学习算法的泛化能力,故引入泛化误差界的概念。一个算法的泛化误差界通常指如下形式的一个估计PsupfsFIfs-ISfs ,m,lF (2)其中是以、训练集数目m以及表示机器复杂度的度量l(F)为变量的正函数(如机器的VC维),它刻画了学习算法经验误差收敛到期望误差的速度估计。从学

4、习算法稳定性的角度来研究泛化能力问题,就不使用机器的任何复杂性的度量(即公式(2)中的l(F)),而代之以使用与算法自身相关的稳定性指标l(A)来对泛化误差进行估计。即寻求如下形式的泛化界估计PIfs-ISfs(,m,l(A) (3)它是对机器中函数fs的非一致估计,更加符合应用实际和便于应用。那么,学习算法稳定性的概念有哪些不同的定义?Kutin和Niyogi所提出的“几乎处处稳定”的学习稳定性框架和其他的框架相比又有什么不同或优势?基于从算法自身研究学习问题起始于Devroye,Rogers和Wagner的研究,他们注意到留一估计中样本有小的改变时算法的稳定性性质,并将算法稳定性作为研究

5、K-最近邻算法泛化性的一个工具(此时由于机器的VC维无限,传统的研究方法失效)。Kearns和Ron研究了具有有限VC维的机器和算法稳定性的关系(故仍旧依赖了传统的VC维的概念);Bousquet和Elisseeff证明了回归问题正则化算法在一定意义下是一致稳定的,并且获得了正则化算法泛化误差的一个指数界估计。但由于Bousquet和Elisseeff定义的稳定性条件太强,Kutin和Niyogi引进了“几乎处处稳定”的概念,并在此基础上研究了学习算法的泛化性。经过查阅资料和阅读论文,我认为判断一个学习稳定性框架的标准有两个。第一,算法稳定性概念的定义;第二,从不同稳定性概念所推导证明出的学习

6、算法的泛化误差界。而最理想的框架应该是这样的:在不太严苛的稳定性定义下,能够推导证明出指数形式的泛化误差界估计。要求“不太严苛”的稳定性定义,因为太严苛的稳定性是一般的学习机器很难达到的,而太弱化的稳定性定义又会导致多项式形式的泛化误差边界。显然,一个具有指数泛化误差边界的算法总是远远优于具有多项式误差边界的算法。下面就可以从稳定性定义和推导出的泛化误差界形式这两个角度来比较不同的学习稳定性框架。在稳定性定义上,Kearns和Ron的论文提出了两种定义:“h假设稳定”和“e逐点假设稳定”,这两种定义可称为“weak hypothesis stability”,即“弱假设稳定”。Bousquet

7、和Elisseeff提出的定义为“m一致稳定”,即“uniform hypothesis stability”,这是一种过于严苛的定义。而Kutin和Niyogi在此基础上提出的定义为“(, )几乎处处稳定”,论文中称为“training stability”,将“m一致稳定”进行了合理的弱化处理。各种稳定性的具体定义如下:设A是一个学习算法,S是训练集,l(f, z)为损失函数,满足有界性条件0l(f, z)M(M是一个常数)。1. A称为是h假设稳定的,如果i1,2,m, ES,z|lfs, z-l(fsi,z)|h。2.A称为是e逐点假设稳定的,如果i1,2,m, ES|lfs, zi-

8、l(fsi,zi)|e。3. A称为是m一致稳定的,如果SZm, i1,2,m, lfs, -l(fsi, )m。4. A称为是(, )几乎处处稳定的,如果i1,2,m, lfs, -l(fsi, )对S以1-的概率成立。其中,Si和Si分别表示从给定训练集S中删除样本zi和将zi替换为一个新样本zi所形成的新训练集(即留一训练集和换一训练集)。由上述的学习算法稳定性定义,可以分别推到出如下的泛化误差界:1.如果算法A是h假设稳定的,则PIfsIloofs+-1M2+6Mmh2m1-.2.如果算法A是e逐点假设稳定的,则PIfsImfs+-1M2+12Mme2m1-.3.如果算法A是m一致稳定

9、的,则,0,PIfsImfs2m+exp(-2m2(4mm+M)2);PIfsIloofsm+exp(-2m2(4mm+M)2).4.如果算法A是(, )几乎处处稳定的,则,0,PImfs-Ifs+M2(exp-l282l+M2+4l2M2l+M).从形式上来看,1和2所推导出的泛化误差界为多项式形式(结果不理想),3推导出的泛化误差界为指数形式(是最理想的),而4推导出的是一个指数和多项式混合界(当且仅当m=o(exp(-m)时退化成一个指数界)。单从泛化误差界来看,Bousquet和Elisseeff 提出的“m一致稳定”所定义的稳定性框架要比Kutin和Niyogi 基于“(,)几乎处处

10、稳定”的框架效果要好。但是,后者是基于前者进行改进的,故必定有其优势所在(否则论文岂不是毫无意义)。前者使用的“m一致稳定”定义过于约束,这导致一些学习算法由于违背这一条件而无法应用;而后者引入“(,)几乎处处稳定”的定义(即在大多数情况下,在训练集里改变一个点只会导致该集里的点的误差发生微小的改变),有效地放宽了限制条件,而且通过实验证明了由此定义能够得到良好的泛化误差界。此外,论文还证明了“(,)几乎处处稳定”(即“training stability”)是“PAC可学习性”的充分必要条件。由此,“(,)几乎处处稳定”定义的优势显而易见。既然基于“几乎处处稳定性”定义的学习稳定性框架这么好

11、,那还有改进的余地吗?在哪方面可作出改进?我认为答案是肯定的。因为至少有一点没有做好:通过“几乎处处稳定”的定义推导得到的泛化误差边界不是指数形式的。通过查阅文献,发现确实有人通过引入新的稳定性定义,优化了这一点。在张海和徐宗本的论文学习算法的稳定性与泛化:一种新的稳定性框架中,他们引入了“im均方稳定”的定义,得到了与一致稳定性框架下同阶的指数式泛化误差界。主要结果如下:定义:算法A称为是im均方稳定的,如果对于任何训练集SZm,存在正实数im,i=1,m,使得E(lfs,-l(fsi,)2|z1,z2,zmim。定理:如果学习算法A是im均方稳定的,且损失函数满足0l(f, z)M,则对与

12、任意的0,成立下述泛化误差指数界估计PIfsImfs+exp(-216i=1mim+48Mi=1mimm+48M2m),其中=maxiim。从上面的结果可以看出,在和几乎处处稳定性框架相当的均方稳定框架下,得到了和更窄的一致稳定框架下所得到的指数界同阶的指数界估计。可以说,这一新的框架是整合了几乎处处稳定和一直稳定两个框架的优点。参考文献:1Kutin S., Niyogi p., Almost-Everywhere Algorithmic Stability and Generalization Error, University of Chincago, Technical Report TR-200-03, 2002.2张海, 徐宗本, 学习算法的稳定性与泛化: 一种新的稳定性框, 西安交通大学, 数学学报中文版, 2009, 52(3): 417-428

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 建筑/环境 > 综合/其它

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号