svm原理及在人脸识别中的应用.

svm原理及在人脸识别中的应用.

ID:15924482

大小:57.64 KB

页数:22页

时间:2018-08-06

svm原理及在人脸识别中的应用._第1页
svm原理及在人脸识别中的应用._第2页
svm原理及在人脸识别中的应用._第3页
svm原理及在人脸识别中的应用._第4页
svm原理及在人脸识别中的应用._第5页
资源描述:

《svm原理及在人脸识别中的应用.》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、关于SVM及其应用的相关原理一、支持向量机介绍下面我简单介绍下何为小样本、非线性及高维模式识别小样本,并不是说样本的绝对数量少,实际上,对任何算法来说,更多的样本几乎总是能带来更好的效果,而是说与问题的复杂度比起来,SVM算法要求的样本数是相对比较少的。非线性,是指SVM擅长应付样本数据线性不可分的情况高维模式识别是指样本维数很高,例如样本出现几万维,不用降维处理,其他算法基本就没有能力应付了,SVM却可以,主要是因为SVM产生的分类器很简洁,用到的样本信息很少,使得即使样本维数很高,也不会给存储和计算带来大麻烦。何为机器学习

2、之后会介绍。支持向量机方法:下面我简单介绍下何为VC维理论和结构风险最小原理以期推广能力所谓VC维是对函数类的一种度量,我们就简单的理解为问题的复杂程度,VC维越高,一个问题就越复杂。(1)PPT下一页在讲解结构风险最小原理,先介绍下风险,风险就是与真实解的误差。我举个例子来说,我们不知道宇宙是如何诞生,就是不知道宇宙的真实模型,如果知道真实的宇宙模型,我们直接用真实模型就可以了。既然不知道,我们就根据一些现象假设认为宇宙诞生于150亿年前的一场大爆炸,这个假设能够描述很多我们观察到的现象,但它与真实的宇宙模型之间还相差多少?

3、谁也说不清,因为我们压根就不知道真实的宇宙模型到底是什么。这个差距我们就认为是风险经验风险就是分类器在给定样本上的误差,就是我们选择一个假设之后,真实误差无从得知,但我们可以用某些可以掌握的量来逼近它。就是使用分类器在样本数据上的分类的结果与真实结果之间的差值来表示。这个差值叫做经验风险。置信风险是分类器在未知文本上分类的结果的误差。代表了我们在多大程度上可以信任分类器在未知文本上分类的结果。很显然,没有办法精确计算的,因此只能给出一个估计的区间,也使得整个误差只能计算上界,而无法计算准确的值。结构风险就是经验风险与置信风险之

4、和(2)PPT下一页下面介绍下机器学习和推广能力机器学习就是对一种对问题真实模型的逼近。机器学习分为传统机器学习和统计机器学习。传统机器学习方法是把经验风险最小化作为努力的目标,但后来发现很多分类函数能够在样本集上轻易达到100%的正确率,然而用分类函数对未知样本分类时却一塌糊涂。经验风险最小化原则适用的大前提是经验风险要确实能够逼近真实风险才行,但实际上能逼近么?答案是不能,因为样本数相对于现实世界要分类的文本数来说简直九牛一毛,经验风险最小化原则只在这占很小比例的样本上做到没有误差,当然不能保证在更大比例的真实文本上也没有

5、误差。所以传统的机器学习基本上属于摸着石头过河,用传统的机器学习方法构造分类系统完全成了一种技巧,一个人做的结果可能很好,另一个人差不多的方法做出来却很差,缺乏指导和原则。统计统计机器学习目标是从经验风险最小化变为了寻求经验风险与置信风险的和最小而推广能力就是,用已知样本得到的一个分类器,在其他未知样本分类时候也能获得很好的正确率。(3)PPT下一页——SVM基础大家可以看上图,我们要区分C1和C2这两类,红色的曲线可以区分出来,但是用线性函数进行区分是最简单也很有效的.我将用一个二维空间里仅有两类样本的分类问题来举例,来说明

6、SVM的形成思路与核心概念何为线性可分与线性不可分,C1和C2是要区分的两个类别,如图所示。中间的直线就是一个分类函数,它可以将两类样本完全分开。一般的,如果一个线性函数能够将样本完全正确的分开,就称这些数据是线性可分的,否则称为非线性可分的。线性函数在一维空间里就是一个点,在二维空间里就是一条直线,三维空间里就是一个平面,如此想象下去,如果不关注空间的维数,这种线性函数一个统一的名称即为超平面下面我们要区分C1,C2可以得到得到一个线性函数g(x)=wx+b如取阈值为0,当有一个样本xi需要判别的时候。若g(xi)>0,就判

7、别为类别C1,若g(xi)<0,则判别为类别C2。很容易区分出样本是属于C1还是C2(4)PPT下一页关于线性函数g(x)=wx+b要注意,式中的x不是二维坐标系中的横轴,而是样本的向量表示,例如一个样本点的坐标是(3,8),则x是向量(3,8),而不是x=3,第二点是这个形式并不局限于二维的情况,在n维空间中仍然可以使用这个表达式,只是式中的w成为了n维向量;三是,g(x)不是中间那条直线的表达式,中间那条直线的表达式是g(x)=0,即wx+b=0,我们也把这个函数叫做分类面。实际上很容易看出来,中间那条分界线并不是唯一的,

8、如图中的绿线和红线,甚至很多线都可以将C1,C2分类出来并且不会分错。哪一个线性函数更好呢?显然必须要先找一个指标来量化“好”的程度,通常使用的都是叫做“几何间隔”的指标。(5)PPT下一页在进行文本分类的时候,我们可以让计算机这样来看待我们提供给它的训练样本,每一个样本由一

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。