机器学习SVM习题集.docx
《机器学习SVM习题集.docx》由会员分享,可在线阅读,更多相关《机器学习SVM习题集.docx(10页珍藏版)》请在第一文库网上搜索。
1、SVM1 .判断题(1)在SVM训练好后,我们可以抛弃非支持向量的样本点,仍然可以对新样本进行分类。(T)SVM对噪声(如来自其他分布的噪声样本)鲁棒。(F)2 .简答题现有一个点能被正确分类且远离决策边界。如果将该点加入到训练集,为什么SVM的决策边界不受其影响,而己经学好的IogiStiC回归会受影响?答:因为SVM采用的是hinge1oss,当样本点被正确分类且远离决策边界时,SVM给该样本的权重为0,所以加入该样本决策边界不受影响。而1ogistic回归采用的是Iog损失,还是会给该样本一个小小的权重。3 .产生式模型和判别式模型。(30分,每小题10分)图2:训练集、最大间隔线性分类
2、器和支持向量(粗体)(1)图中采用留一交叉验证得到的最大间隔分类器的预测误差的估计是多少(用样本数表示即可)?从图中可以看出,去除任意点都不影响SVM的分界面。而保留所有样本时,所有的样本点都能被正确分类,因此1OoCV的误差估计为0。(2)说法“最小结构风险保证会找到最低决策误差的模型”是否正确,并说明理由。(F)最小结构风险(SRM)只能保证在所有考虑的模型中找到期望风险上界最小的模型。(3)若采用等协方差的富斯模型分别表示上述两个类别样本的分布,则分类器的VC维是多少?为什么?等协方差的高斯模型的决策边界为线性,因为其VC维维D+1题中D=2.4、SVM分类。(第15题各4分,第6题5分
3、,共25分)下图为采用不同核函数或不同的松弛因子得到的SVM决策边界。但粗心的实验者忘记记录每个图形对应的模型和参数了。请你帮忙给下面每个模型标出正确的图形。、min1w12cst.110,MW,x+喝)1-q,i=1,.,N,其中C=O.1。线性分类面,C较小,正则较大,I1W11较小,Margin较大支持向量较多(C)、min口W+C卒)s.t.C)&0,.(w,x+)1-,i=1,.,N,其中C=1。线性分类面,C较大,正则较小,I1W1I较大,Margin较小e)支持向量的数目少(b)、maxEaiFEEaiajyiyjk(,/=)Z=iy=s.t.OaiCyi=1,.,MEaiyi=
4、。其中k(x,x)=r,+(x7x)2。二次多项式核函数,决策边界为二次曲线(d)NjNN、max-yM(x,xJ/=1Zi1J=I)Ns.t.OaiC,i=1,.,TV,.)、=()=1其中MXH)=expbJ|x-x)。RBF核函数,决策边界为曲线,。=1较大,曲线更平滑(a)(NiNN、(5)、max-(x1.,xy)卜=!Zf=!J=IJNs.t.OajC,i=1,.,N,Eaiyi=OJ=I其中2(x,x)=exHx-xoRBF核函数,决策边界为曲线,O=Sqrt(I/2)较小,曲线更弯曲(e)考虑带松弛因子的线性SVM分类器:minJ1w2+CXcJ,s.t.0,yf(wrx+v4
5、,)1-,i=T,.,N,下面有一些关于某些变量随参数C的增大而变化的表述。如果表述总是成立,标示“是“;如果表述总是不成立,标示“否”;如果表述的正确性取决于C增大的具体情况,标示“不一定”。(I)WO不会增大(不一定)同I增大(不一定)网不会减小(是)(4)会有更多的训练样本被分错(否)(5)间隔(Margin)不会增大(是)5、考虑带松弛因子的线性SVM分类器:mj(;IWs.t,y,(%+wxi.)1-,Di。在下图中,C=0.1,1,10,100,并且己经标出分界面和支持向量。请给每幅图标出最可能的C的取值,并分析原因(20分)。FigureI:C-10答:(w0+w.)1-.,Vi
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 机器 学习 SVM 习题集