统计学习理论简介.ppt

统计学习理论简介.ppt

ID:59465384

大小:2.82 MB

页数:28页

时间:2020-09-14

统计学习理论简介.ppt_第1页
统计学习理论简介.ppt_第2页
统计学习理论简介.ppt_第3页
统计学习理论简介.ppt_第4页
统计学习理论简介.ppt_第5页
资源描述:

《统计学习理论简介.ppt》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、第八章统计学习理论简介IntroductionofStatisticalLearningTheory§1机器学习问题和方法§2学习过程的一致性条件§3函数集的学习性能与VC维§4推广性的界§5结构风险最小化-支持向量机客观世界中存在着无法准确认识,但可进行观测的事物。“统计”是面对数据而又缺乏理论模型时最有效的、也是唯一的分析手段。传统的统计学所研究的是渐进理论,是在样本数目趋于无穷大时,其性能才有理论上的保证。上世纪90年代中才成熟的统计学习理论,是在基于经验风险的有关研究基础上发展起来的,专门针对小样本的统计理论。统计学习理论为研究有限

2、样本情况下的模式识别、函数拟合和概率密度估计等三种类型的机器学习问题提供了理论框架,同时也为模式识别发展了一种新的分类方法——支持向量机。§1机器学习问题和方法1.机器学习问题机器学习是现代智能技术中重要的一个方面,研究从观测样本出发去分析对象,去预测未来。机器学习的基本模型:G从F(x)中抽取的x;S是研究对象;LM是所求的学习机。系统(S)学习机{f(x,w)}(LM)输入x输出y预测输出产生器(G)输出y与x之间存在一种固定的、但形式未知的联合概率分布函数F(y,x)。学习机中有函数集{f(x,w)},可估计输入与输出之间依赖关系,其

3、中w为广义参数。2.风险最小化-机器学习问题表示已知变量y与输入x之间存在一定的未知依赖关系,即联合概率分布F(x,y)。(作为一种特例,若x和y之间有确定性关系,即系统辨识)。机器学习就是根据独立同分布的n个观测样本:(x1,y1),(x2,y2),···,(xn,yn)在一组函数{f(x,w)}中求一个最优函数f(x,w0),使预测的期望风险R(w)最小化。L(y,{f(x,w)})为损失函数,由于对y进行预测而造成的损失;w为函数的广义参数,故{f(x,w)}可表示任何函数集;F(x,y)为联合分布函数。三类机器学习问题的损失函数⑴模

4、式识别:输出y就是类别。两类输出y={0,1},这时预测函数称为指示函数。损失函数定义:⑵函数拟合:y(连续变量)是x的函数,损失函数⑶概率密度估计:估计的概密为p(x,w),损失函数要使期望风险R(w)最小化,依赖概率分布F(x,y)。但在机器学习中,只有样本信息,无法直接计算期望风险及其最小化。3.经验风险最小化(EmpiricRiskMinimization,ERM)根据概率论中的大数定理,用算术平均代替数学期望,定义了经验风险来逼近定义的期望风险。用训练样本(xi,yi,i=1~n)(即经验数据)定义,故称为经验风险。求经验风险Re

5、mp(w)的最小值代替求期望风险R(w)的最小值,就是所谓的ERM原则。模式识别中前面各章的分类器设计(除SVM);函数拟合中的最小二乘法;概率密度估计中的极大似然法都是在ERM原则下得到的。从期望风险最小化到经验风险最小化并没有可靠的理论依据。Remp(w)和R(w)都是w的函数,概率论中的大数定理只说明样本无限多时Remp(w)在概率意义上趋近于R(w),并不说二者的w最小点为同一个点。而且客观上样本是有限的。有限样本情况下学习精度和推广性之间往往有矛盾,采用复杂的学习机器可使误差更小,但推广性差。统计学习理论对使用经验风险最小化原则的

6、前提,对解决机器学习问题中的期望风险最小化理论依据进行了研究。§2学习过程的一致性条件一致性(consistency)是指当样本趋于无穷时,Remp(w)的最优值收敛到R(w)的最优值。1.学习过程的一致性最优预测函数f(x,w*)→最小的L(y,f(x,w*

7、n))→最小值Remp(w*

8、n)。R(w*

9、n)为在L(y,f(x,w*

10、n))下的真实(期望)风险值。如果下面两式成立时称这个学习过程是一致的:换句话讲,如果经验风险最小化方法能提供一个函数序列{f(x,w)},使得Remp(w)和R(w)都收敛于最小可能的风险值R(w0),则这

11、个经验风险最小化学习过程是一致的。这两个条件说明①式保证了所达到的风险收敛于最好的可能值。②式保证了可以在经验风险的取值基础上估计最小可能的实际风险。存在一种可能,预测函数集中有某个特殊的函数满足上述条件。为此定义了非平凡一致性概念,即预测函数集中的所有子集都满足条件。2.学习理论关键定理:经验风险最小化一致性的充分和必要条件是经验风险在函数集上,如下式收敛于期望风险其中P概率。这样把一致性问题转化为一致收敛问题。它有赖于预测函数集和样本概率分布。Remp(w)和R(w)都是预测函数的函数(泛函)。目的是通过求经验风险最小化的预测函数来逼近

12、能使期望风险最小化的函数。关键定理没有给出学习方法,即预测函数集是否能满足一致性的条件。为此定义了一些指标来衡量函数集的性能,最重要的是VC维。§3函数集的学习性能与VC维1.指

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。