svm理论与实验之7松弛变量

上传人:M****1 文档编号:498789455 上传时间:2022-08-01 格式:DOCX 页数:3 大小:70.37KB
返回 下载 相关 举报
svm理论与实验之7松弛变量_第1页
第1页 / 共3页
svm理论与实验之7松弛变量_第2页
第2页 / 共3页
svm理论与实验之7松弛变量_第3页
第3页 / 共3页
亲,该文档总共3页,全部预览完了,如果喜欢就下载吧!
资源描述

《svm理论与实验之7松弛变量》由会员分享,可在线阅读,更多相关《svm理论与实验之7松弛变量(3页珍藏版)》请在金锄头文库上搜索。

1、精选文档现在我们已经把一个本来线性不可分的文本分类问题, 通过映射到高维空间而变成了线性可分的。就像下图这样:圆形和方形的点各有成千上万个 (毕竟, 这就是我们训练集中文档的数量嘛, 当然很大了)现在想象我们有另一个训练集, 只比原先这个训练集多了一篇文章, 映射到高维空间以后 (当然,也使用了相同的核函数) ,也就多了一个样本点,但是这个样本的位置是这样的:就是图中黄色那个点,它是方形的,因而它是负类的一个样本,这单独的一个样本,使得原本线性可分的问题变成了线性不可分的。这样类似的问题(仅有少数点线性不可分)叫做 “近似线性可分 ”的问题。以我们人类的常识来判断,说有一万个点都符合某种规律(

2、因而线性可分) ,有一个点不符合, 那这一个点是否就代表了分类规则中我们没有考虑到的方面呢 (因而规则应该为它而做出修改)?其实我们会觉得,更有可能的是,这个样本点压根就是错误, 是噪声,是提供训练集的同学人工分类时一打瞌睡错放进去的。所以我们会简单的忽略这个样本点,仍然使用原来的分类器,其效果丝毫不受影响。但这种对噪声的容错性是人的思维带来的, 我们的程序可没有。 由于我们原本的优化问题的表达式中, 确实要考虑所有的样本点 (不能忽略某一个, 因为程序它怎么知道该忽略哪一个呢?) ,在此基础上寻找正负类之间的最大几何间隔, 而几何间隔本身代表的是距离, 是非负的, 像上面这种有噪声的情况会使

3、得整个问题无解。这种解法其实也叫做 “硬间隔 ”分类法,因为他硬性的要求所有样本点都满足和分类平面间的距离必须大于某个值。因此由上面的例子中也可以看出, 硬间隔的分类法其结果容易受少数点的控制, 这是很危险的 (尽管有句话说真理总是掌握在少数人手中,但那不过是那一小撮人聊以自慰的词句罢了, 咱还是得民主) 。但解决方法也很明显, 就是仿照人的思路, 允许一些点到分类平面的距离不满足原先的要求。由于不同的训练集各点的间距尺度不太一样, 因此用间隔 (而不是几何间隔) 来衡量有利于我们表达形式的简洁。我们原先对样本点的要求是:意思是说离分类面最近的样本点函数间隔也要比 1 大。如果要引入容错性,就

4、给1 这个硬性的阈值加一个松弛变量,即允许因为松弛变量是非负的,因此最终的结果是要求间隔可以比 1 小。但是当某些点出现这种间隔比 1 小的情况时(这些点也叫离群点) ,意味着我们放弃了对这些点的精确分类,而这对我们的分类器来说是种损失。 但是放弃这些点也带来了好处, 那就是使分类面不必向这些点的方向移动,因而可以得到更大的几何间隔(在低维空间看来,分类边界也更平滑) 。显然我们必须权衡这种损失和好处。好处很明显,我们得到的分类间隔越大,好处就越多。回顾我们原始的硬间隔分类对应的优化问题:|w|2 就是我们的目标函数(当然系数可有可无) ,希望它越小越好,因而损失就必然是一个能使之变大的量(能

5、使它变小就不叫损失了,我们本来就希望目标函数值越小越好) 。那如何来衡量损失,有两种常用的方式,有人喜欢用而有人喜欢用其中 l 都是样本的数目。两种方法没有大的区别。如果选择了第一种,得到的方法的就叫做二阶软间隔分类器, 第二种就叫做一阶软间隔分类器。 把损失加入到目标函数里的时候, 就需要一个惩罚因子( cost ,也就是 libSVM 的诸多参数中的 C ) ,原来的优化问题就变成了下面这样:这个式子有这么几点要注意:一是并非所有的样本点都有一个松弛变量与其对应。实际上只有 “离群点 ”才有,或者也可以这么看,所有没离群的点松弛变量都等于0 (对负类来说,离群点就是在前面图中,跑到 H2

6、右侧的那些负样本点,对正类来说,就是跑到 H1 左侧的那些正样本点) 。二是松弛变量的值实际上标示出了对应的点到底离群有多远,值越大,点就越远。三是惩罚因子C 决定了你有多重视离群点带来的损失,显然当所有离群点的松弛变量的和一定时,你定的 C 越大,对目标函数的损失也越大,此时就暗示着你非常不愿意放弃这些离群点,最极端的情况是你把C 定为无限大,这样只要稍有一个点离群,目标函数的值马上变成无限大,马上让问题变成无解,这就退化成了硬间隔问题。四是惩罚因子C 不是一个变量, 整个优化问题在解的时候, C 是一个你必须事先指定的值,指定这个值以后,解一下,得到一个分类器,然后用测试数据看看结果怎么样

7、,如果不够好,换一个 C 的值,再解一次优化问题,得到另一个分类器,再看看效果,如此就是一个参数寻优的过程,但这和优化问题本身决不是一回事,优化问题在解的过程中, C 一直是定值,要记住。五是尽管加了松弛变量这么一说, 但这个优化问题仍然是一个优化问题 (汗, 这不废话么) ,解它的过程比起原始的硬间隔问题来说,没有任何更加特殊的地方。从大的方面说优化问题解的过程, 就是先试着确定一下w , 也就是确定了前面图中的三条直线,这时看看间隔有多大,又有多少点离群,把目标函数的值算一算,再换一组三条直线(你可以看到, 分类的直线位置如果移动了, 有些原来离群的点会变得不再离群, 而有的本来不离群的点

8、会变成离群点) ,再把目标函数的值算一算,如此往复(迭代) , 直到最终找到目标函数最小时 的 w 。啰嗦了这么多, 读者一定可以马上自己总结出来, 松弛变量也就是个解决线性不可分问题的方法罢了, 但是回想一下, 核函数的引入不也是为了解决线性不可分的问题么?为什么要为了一个问题使用两种方法呢?其实两者还有微妙的不同。 一般的过程应该是这样, 还以文本分类为例。 在原始的低维空间 中,样本相当的不可分,无论你怎么找分类平面,总会有大量的离群点, 此时用核函数向高维空间映射一下, 虽然结果仍然是不可分的, 但比原始空间里的要更加接近线性可分的状态 (就是达到了近似线性可分的状态) ,此时再用松弛变量处理那些少数 “冥顽不化 ”的离群点,就简单有效得多啦。至此一个比较完整的支持向量机框架就有了, 简单说来, 支持向量机就是使用了核函数的软间隔线性分类法。 可编辑

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 学术论文 > 毕业论文

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号