支持向量机通俗导论(理解SVM的三层境界)带完整书签版本.docx
《支持向量机通俗导论(理解SVM的三层境界)带完整书签版本.docx》由会员分享,可在线阅读,更多相关《支持向量机通俗导论(理解SVM的三层境界)带完整书签版本.docx(64页珍藏版)》请在第一文库网上搜索。
1、支持向量机通俗导论(理解SVM的三层境界)作者:Ju1y、p1uskid致谢:白石、JerTy1ead本PDF制作者:吴新隆联系作者:http:/Wiuvweibo出处:http:二零一三年十二月六日于天通苑-AZ-I-刖S动笔写这个支持向量机(SUPPortVeCtOrmaChine)是费了不少劲和困难的,原因很简单,一者这个东西本身就并不好懂,要深入学习和研究下去需花费不少时间和精力,二者这个东西也不好讲清楚,尽管网上已经有朋友写得不错了(见文末参考链接),但在描述数学公式的时候还是显得不够。得益于同学白石的数学证明,我还是想尝试写一下,希望本文在兼顾通俗易懂的基础上,真真正正能足以成为一
2、篇完整概括和介绍支持向量机的导论性的文章。本文在写的过程中,参考了不少资料,包括支持向量机导论、统计学习方法及网友PIUSkid的支持向量机系列等等,于此,还是一篇学习笔记,只是加入了自己的理解和总结,有任何不妥之处,还望海涵。全文宏观上整体认识支持向量机的概念和用处,微观上深究部分定理的来龙去脉,证明及原理细节,力求逻辑清晰&通俗易懂。同时,阅读本文时建议大家尽量使用ChrOme等浏览器,如此公式才能更好的显示,再者,阅读时可拿张纸和笔出来,把本文所有定理.公式都亲自推导一遍或者直接打印下来(可直接打印网页版或本PDF,享受随时随地思考、演算的极致快感),在文稿上演算。0k,还是那句原话,有
3、任何问题,欢迎任何人随时不吝指正&赐教,感谢。第一层、了解SVM1.0、什么是支持向量机SVM要明白什么是SVM,便得从分类说起。分类作为数据挖掘领域中一项非常重要的任务,它的目的是学会一个分类函数或分类模型(或者叫做分类器),而支持向量机本身便是一种监督式学习的方法(至于具体什么是监督学习与非监督学习,请参见此系列MaChine1&DataMininH第一篇),它广泛的应用于统计分类以及回归分析中。支持向量机(SVM)是90年代中期发展起来的基于统计学习理论的一种机器学习方法,通过寻求结构化风险最小来提高学习机泛化能力,实现经验风险和置信范围的最小化,从而达到在统计样本量较少的情况下,亦能获
4、得良好统计规律的目的。通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,即支持向量机的学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解。对于不想深究SVM原理的同学或比如就只想看看SVM是干嘛的,那么,了解到这里便足够了,不需上层。而对于那些喜欢深入研究一个东西的同学,甚至究其本质的,咱们则还有很长的一段路要走,万里长征,咱们开始迈第一步吧,相信你能走完。1.1、 线性分类OK,在讲SVM之前,咱们必须先弄清楚一个概念:线性分类器(也可以叫做感知机,这里的机表示的是一种算法,本文第三部分、证明SVM中会详细阐述)。1.1.1 ,分类标准这里我们考虑的
5、是一个两类的分类问题,数据点用X来表示,这是一个n维向量,WAT中的T代表转置,而类别用y来表示,可以取1或者-1,分别代表两个不同的类。一个线性分类器的学习目标就是要在n维的数据空间中找到一个分类超壬面,其方程可以表示为:WTX&=0上面给出了线性分类的定义描述,但或许读者没有想过:为何用y取1或者来表示两个不同的类别呢?其实,这个1或-1的分类标准起源于1ogistic回归,为了完整和过渡的自然性,咱们就再来看看这个1ogistic回归。1.1.2 1或1分类标准的起源:1ogistic回归1ogistic回归目的是从特征学习出一个0/1分类模型,而这个模型是将特性的线性组合作为自变量,由
6、于自变量的取值范围是负无穷到正无穷。因此,使用1ogistic函数(或称作Sigmoid函数)将自变量映射到(U)上,映射后的值被认为是属于y=1的概率。形式化表示就是假设函数儿(工)=g(9r)=jr;其中X是n维特征向量,函数g就是IogiStiC函数。g(z)=而的图像是可以看到,将无穷映射到了。1)。而假设函数就是特征属于y=1的概率。加(N)1-h(x)P(y=11工;。)P(y=O1笈;夕)当我们要判别一个新来的特征属于哪个类时,只需求,若大于0.5就是户1的类,反之属于Y=O类。再审视一下1,发现只蜘(喃关,4),那2r,g(z)*-dS只不过是用来映射,真实的类别决定权还在。馅
7、!当时=1,M)反之h-=o0如果我们只从尹N出发,希望模型达到的目标无非就是让训练数据中y=1的特征剂力猊的,而是y=0的特征1ogistic回归就是要学习得到。,使得正例的特征远大于0,负例的特征远小于0,强调在全部训练实例上达到这个目标。1.1.3 、形式化标示我们这次使用的结果标签是y=-i,y=1,替换在1ogistic回归中使用的y二o和y=i。同时将替换成W和b。以前的夕=瓦+配&十九&+6X,其中认为匕=1。现在我们替换为b,后面替换心工+6一心+8.(为WI+w凡+wx(即W/X)。这样,我们让=3&Mh,进一步fcX)=n(x)=fw+11也就是说除TV由y=0变为y=-1
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 支持 向量 通俗 导论 理解 SVM 三层 境界 完整 书签 版本