文档详情

机器学习SVM习题集

fe****16
实名认证
店铺
DOCX
591.61KB
约10页
文档ID:131303595
机器学习SVM习题集_第1页
1/10

SVM1.判断题(1) 在SVM训练好后,我们可以抛弃非支持向量的样本点,仍然可以对新样本进行分类T)(2) SVM对噪声(如来自其他分布的噪声样本)鲁棒F)2.简答题现有一个点能被正确分类且远离决策边界如果将该点加入到训练集,为什么SVM的决策边界不受其影响,而已经学好的logistic回归会受影响?答:因为SVM采用的是hinge loss,当样本点被正确分类且远离决策边界时,SVM给该样本的权重为0,所以加入该样本决策边界不受影响而logistic回归采用的是log损失,还是会给该样本一个小小的权重3.产生式模型和判别式模型30分,每小题10分)图2:训练集、最大间隔线性分类器和支持向量(粗体)(1)图中采用留一交叉验证得到的最大间隔分类器的预测误差的估计是多少(用样本数表示即可)?从图中可以看出,去除任意点都不影响SVM的分界面而保留所有样本时,所有的样本点都能被正确分类,因此LOOCV的误差估计为02)说法“最小结构风险保证会找到最低决策误差的模型”是否正确,并说明理由F)最小结构风险(SRM)只能保证在所有考虑的模型中找到期望风险上界最小的模型3)若采用等协方差的高斯模型分别表示上述两个类别样本的分布,则分类器的VC维是多少?为什么?等协方差的高斯模型的决策边界为线性,因为其VC维维D+1。

题中D=2.4、SVM分类第1~5题各4分,第6题5分,共25分)下图为采用不同核函数或不同的松弛因子得到的SVM决策边界但粗心的实验者忘记记录每个图形对应的模型和参数了请你帮忙给下面每个模型标出正确的图形1)、其中线性分类面,C较小,正则较大,||w||较小,Margin较大,支持向量较多(c)(2)、其中线性分类面,C较大,正则较小,||w||较大,Margin较小支持向量的数目少(b)(3)、其中二次多项式核函数,决策边界为二次曲线(d)(4)、其中RBF核函数,决策边界为曲线, σ=1较大,曲线更平滑 (a)(5)、其中RBF核函数,决策边界为曲线, σ=sqrt(1/2)较小,曲线更弯曲 (e)(6)考虑带松弛因子的线性SVM分类器:下面有一些关于某些变量随参数C的增大而变化的表述如果表述总是成立,标示“是”;如果表述总是不成立,标示“否”;如果表述的正确性取决于C增大的具体情况,标示“不一定” (1) 不会增大 (不一定)(2) 增大 (不一定)(3) 不会减小 (是)(4) 会有更多的训练样本被分错(否)(5) 间隔(Margin)不会增大(是)5、考虑带松弛因子的线性SVM分类器:。

在下图中,,并且已经标出分界面和支持向量请给每幅图标出最可能的C的取值,并分析原因(20分)答:等价于所以,即margin减小(当C增大到一定程度时,Margin不再变化),不允许错分太多样本(对错分样本的惩罚大),支持向量(落在Margin内的样本和错分的样本)的数目减少 6. SVM(1) 下面的情况,适合用原SVM求解还是用对偶SVM求解1) 特征变换将特征从D维变换到无穷维对偶)2) 特征变换将特征从D维变换到2D维,训练数据有上亿个并且线性可分原)(2) 性可分情况下,在原问题形式化中怎样确定一个样本为支持向量?在原问题中,给出了w,w0,支持向量满足:7.SVM和松弛因子考虑如图给出的训练样本,我们采用二次多项式做为核函数,松弛因子为C请对下列问题做出定性分析,并用一两句话给出原因1) 当C∞时,决策边界会变成什么样?答:当C很大时,错分样本的惩罚会非常大,因此模型会尽可能将样本分对记住这里决策边界为二次曲面) C∞ C0(2) 当C0时,决策边界会变成什么样?可以错分少量样本,但Margin大(3) 你认为上述两种情况,哪个在实际测试时效果会好些?我们不能过于相信某个特定的样本,因此C0的效果会好些,因为它最大化样本云团之间的Margin.(4) 在图中增加一个点,使得当C∞时,决策边界会不变。

能被原来的分类器正确分类,不会是支持向量5) 在图中增加一个点,使得当C∞时,该点会显著影响决策边界能被原来的分类器正确分类,不会是支持向量当C很大时,错分样本的惩罚会非常大,因此增加一个不能被原来分类器正确分类的样本会影响决策边界8.对outlier的敏感性我们知道在SVM用于回归时,等价于采用ε不敏感的损失函数(如下图所示),即SVM的目标为:课堂已经讨论L2损失对outliers比较敏感,而L1损失和huber损失相对不敏感些1) 请说明为什么L2损失比较L1损失对outliers更敏感Outlier为离群点,因此其预测残差r会比较大L2损失为残差r的平方r2,L1损失为残差r的绝对值|r|当r>1时,r2>|r|,从而L2损失在outliter样本点的值会非常大,对结果影响更大2) 请给出一个outlier影响预测子的例子3) 相比于L2损失和L1损失,分析SVM的ε不敏感的损失函数对outliers敏感性ε不敏感的损失函数对outliers的敏感性更接近于L1损失,因此比L2损失更不敏感初看起来,ε不敏感的损失函数在区间[-ε,ε]不施加惩罚,似乎比L1对outliers更不敏感。

但实际上outliers对应的残差通常很大,所以不会落在区间[-ε,ε],所以ε不敏感的损失函数对outliers的敏感性和L1损失相似4) SVM也等价于MAP估计,则该MAP估计对应的先验和似然是什么?同岭回归类似,先验为0均值得高斯分布,但方差为2C,同时各维独立,即,似然函数在区间[-ε,ε]为常数,其他地方为Laplace分布:9. 多个数据源的SVM假设你在两天内用两个不同的仪器收集了两批数据,你觉得数据集1标签的可信度为数据集2的两倍我们分别用表示数据集1,表示数据集2,数据集1的松弛因子表示为ξ,数据集2的松弛因子表示ζ,二者的Lagrange乘子分别表示为α和β关于怎样处理这两批数据,你的朋友们给出了不同的建议张三:将数据集1的松弛惩罚乘以2,因此优化问题为:李四:将数据集1的Lagrange乘子乘以2,因此优化问题为:王五:将数据集1的数据点复制一份(即数据集1中的每个样本点变成2个),然后照常处理问题:请说明上述处理是否等价(得到的分界面相同)解:我们从张三的建议的对偶表示开始,即优化,目标函数对求导等于0,,(1), (2), (3), (4)由于有约束,公式(3)(4)变成。

将上述公式代入L,消除,得到对偶表示:可以看出,这和下面李四的建议不同王五的建议如下,,和张三的建议相同,即张三 = 王五。

下载提示
相似文档
正为您匹配相似的精品文档