支持向量机通俗导论(理解svm的三层境界)-github

支持向量机通俗导论(理解svm的三层境界)-github

ID:33617033

大小:848.11 KB

页数:39页

时间:2019-02-27

支持向量机通俗导论(理解svm的三层境界)-github_第1页
支持向量机通俗导论(理解svm的三层境界)-github_第2页
支持向量机通俗导论(理解svm的三层境界)-github_第3页
支持向量机通俗导论(理解svm的三层境界)-github_第4页
支持向量机通俗导论(理解svm的三层境界)-github_第5页
资源描述:

《支持向量机通俗导论(理解svm的三层境界)-github》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库

1、支持向量机通俗导论(理解SVM的三层境界)July、pluskid;致谢:白石、JerryLead出处:结构之法算法之道blog。前言动笔写这个支持向量机(supportvectormachine)是费了不少劲和困难的,原因很简单,一者这个东西本身就并不好懂,要深入学习和研究下去需花费不少时间和精力,二者这个东西也不好讲清楚,尽管网上已经有朋友写得不错了(见文末参考链接),但在描述数学公式的时候还是显得不够。得益于同学白石的数学证明,我还是想尝试写一下,希望本文在兼顾通俗易懂的基础上,真真正正能足以成为一篇完整概括和介绍支持向量机的导论性的文章

2、。本文在写的过程中,参考了不少资料,包括《支持向量机导论》、《统计学习方法》及网友pluskid的支持向量机系列等等,于此,还是一篇学习笔记,只是加入了自己的理解和总结,有任何不妥之处,还望海涵。全文宏观上整体认识支持向量机的概念和用处,微观上深究部分定理的来龙去脉,证明及原理细节,力保逻辑清晰&通俗易懂。同时,阅读本文时建议大家尽量使用chrome等浏览器,如此公式才能更好的显示,再者,阅读时可拿张纸和笔出来,把本文所有定理.公式都亲自推导一遍或者直接打印下来(可直接打印网页版或本文文末附的PDF,享受随时随地思考、演算的极致快感),在文稿上

3、演算。Ok,还是那句原话,有任何问题,欢迎任何人随时不吝指正&赐教,感谢。1第一层、了解SVM1.1什么是支持向量机SVM要明白什么是SVM,便得从分类说起。分类作为数据挖掘领域中一项非常重要的任务,它的目的是学会一个分类函数或分类模型(或者叫做分类器),而支持向量机本身便是一种监督式学习的方法(至于具体什么是监督学习与非监督学习,请参见此系列MachineL&DataMining第一篇),它广泛的应用于统计分类以及回归分析中。支持向量机(SVM)是90年代中期发展起来的基于统计学习理论的一种机器学习方法,通过寻求结构化风险最小来提高学习机泛化

4、能力,实现经验风险和置信范围的最小化,从而达到在统计样本量较少的情况下,亦能获得良好统计规律的目的。通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,即支持向量机的学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解。对于不想深究SVM原理的同学或比如就只想看看SVM是干嘛的,那么,了解到这里便足够了,不需上层。而对于那些喜欢深入研究一个东西的同学,甚至究其本质的,咱们则还有很长的一段路要走,万里长征,咱们开始迈第一步吧,相信你能走完。11.2线性分类OK,在讲SVM之前,咱们必须先弄清楚一个概念:线性分

5、类器(也可以叫做感知机,这里的机表示的是一种算法,本文第三部分、证明SVM中会详细阐述)。1.2.1分类标准这里我们考虑的是一个两类的分类问题,数据点用x来表示,这是一个n维向量,wT中的T代表转置,而类别用y来表示,可以取1或者-1,分别代表两个不同的类。一个线性分类器的学习目标就是要在n维的数据空间中找到一个分类超平面,其方程可以表示为:Twx+b=0(1)上面给出了线性分类的定义描述,但或许读者没有想过:为何用y取1或者-1来表示两个不同的类别呢?其实,这个1或-1的分类标准起源于logistic回归,为了完整和过渡的自然性,咱们就再来看

6、看这个logistic回归。1.2.21或-1分类标准的起源:logistic回归Logistic回归目的是从特征学习出一个0/1分类模型,而这个模型是将特性的线性组合作为自变量,由于自变量的取值范围是负无穷到正无穷。因此,使用logistic函数(或称作sigmoid函数)将自变量映射到(0;1)上,映射后的值被认为是属于y=1的概率。形式化表示就是假设函数T1h0(x)=g(x)=T(2)1+ex其中x是n维特征向量,函数g就是logistic函数。而g(z)=1的图像是1+ez可以看到,将无穷映射到了(0;1)。而假设函数就是特征

7、属于y=1的概率。P(y=1jx;)=h(x)P(y=0jx;)=1h(x)(3)当我们要判别一个新来的特征属于哪个类时,只需求,若大于0:5就是y=1的类,反之属于y=0类。再审视一下h(x),发现h(x)只和T有关,Tx>0,那么h(x)>0:5,g(z)只不过是用来映射,真实的类别决定权还在Tx。还有当时Tx>>0,h(x)=1,反之2h(x)=0。如果我们只从Tx出发,希望模型达到的目标无非就是让训练数据中y=1的特征Tx>>0,而是y=0的特征Tx<<0。Logistic回归就是要学习得到,使得正例

8、的特征远大于0,负例的特征远小于0,强调在全部训练实例上达到这个目标。1.2.3形式化标示我们这次使用的结果标签是y=1,y=1,替换在logist

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。