支持向量回归机.doc

支持向量回归机.doc

ID:51942243

大小:559.50 KB

页数:10页

时间:2020-03-20

支持向量回归机.doc_第1页
支持向量回归机.doc_第2页
支持向量回归机.doc_第3页
支持向量回归机.doc_第4页
支持向量回归机.doc_第5页
资源描述:

《支持向量回归机.doc》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库

1、3.3支持向量回归机SVM本身是针对经典的二分类问题提出的,支持向量回归机(SupportVectorRegression,SVR)是支持向量在函数回归领域的应用。SVR与SVM分类有以下不同:SVM回归的样本点只有一类,所寻求的最优超平面不是使两类样本点分得“最开”,而是使所有样本点离超平面的“总偏差”最小。这时样本点都在两条边界线之间,求最优回归超平面同样等价于求最大间隔。3.3.1SVR基本模型对于线性情况,支持向量机函数拟合首先考虑用线性回归函数拟合,为输入量,为输出量,即需要确定和。图3-3aSVR结构图图3-3b不灵敏度函数惩

2、罚函数是学习模型在学习过程中对误差的一种度量,一般在模型学习前己经选定,不同的学习问题对应的损失函数一般也不同,同一学习问题选取不同的损失函数得到的模型也不一样。常用的惩罚函数形式及密度函数如表3-1。表3-1常用的损失函数和相应的密度函数损失函数名称损失函数表达式噪声密度-不敏感拉普拉斯高斯鲁棒损失多项式分段多项式标准支持向量机采用-不灵敏度函数,即假设所有训练数据在精度下用线性函数拟合如图(3-3a)所示,(3.11)式中,是松弛因子,当划分有误差时,,都大于0,误差不存在取0。这时,该问题转化为求优化目标函数最小化问题:(3.12)

3、式(3.12)中第一项使拟合函数更为平坦,从而提高泛化能力;第二项为减小误差;常数表示对超出误差的样本的惩罚程度。求解式(3.11)和式(3.12)可看出,这是一个凸二次优化问题,所以引入Lagrange函数:(3.13)式中,,,,,为Lagrange乘数,。求函数对,,,的最小化,对,,,的最大化,代入Lagrange函数得到对偶形式,最大化函数:(3.14)其约束条件为:C怎么来的(3.15)一个点不能同时两个等式都满足求解式(3.14)、(3.15)式其实也是一个求解二次规划问题,由Kuhn-Tucker定理,在鞍点处有:(3.1

4、6)得出,表明,不能同时为零,还可以得出:怎么得到的(3.17)从式(3.17)可得出,当,或时,可能大于,与其对应的称为边界支持向量(BoundarySupportVector,BSV),对应图3-3a中虚线带以外的点;当时,,即,,与其对应的称为标准支持向量(NormalSupportVector,NSV),对应图3-3a中落在管道上的数据点;当,时,与其对应的为非支持向量,对应图3-3a中管道内的点,它们对没有贡献。因此越大,支持向量数越少。对于标准支持向量,如果,此时,由式(3.16)可以求出参数:同样,对于满足的标准支持向量,有

5、一般对所有标准支持向量分别计算的值,然后求平均值,即(3.18)因此根据样本点求得的线性拟合函数为(3.19)与之前有的解释不一样非线性SVR的基本思想是通过事先确定的非线性映射将输入向量映射的一个高维特征空间(Hilbert空间)中,然后在此高维空间中再进行线性回归,从而取得在原空间非线性回归的效果。首先将输入量通过映射映射到高维特征空间中用函数式变为:与3.14对应(3.20)支持向量机的核心要点式(3.20)中涉及到高维特征空间点积运算,而且函数是未知的,高维的。支持向量机理论只考虑高维特征空间的点积运算,而不直接使用函数。称为核函

6、数,核函数的选取应使其为高维特征空间的一个点积,核函数的类型有多种,常用的核函数有:多项式核:;说明为什么,其次讲一下为什么引入核函数高斯核:;RBF核:;B样条核:;Fourier核:;因此式(3.20)变成(3.21)在变换过后的空间中的表示式可求的非线性拟合函数的表示式为:(3.22)3.3.2结构改进的支持向量回归机前半部分怎么解释,分类的时候好解释,回归的时候呢上节所述的SVR基本模型其优化目标为:(3.23)SVR结构改进算法一般在优化目标中增加函数项,变量或系数等方法使公式变形,产生出各种有某一方面优势或者一定应用范围的算法

7、。Suykens提出了最小二乘支持向量机(LS-SVM)[105],与标准SVM相比其优化指标采用了平方项,从而将不等式约束转变成等式约束,将二次规划问题转化成了线性方程组的求解,其优化目标为:(3.24)LS-SVM与标准SVM相比减少了一个调整参数,减少了个优化变量,从而简化了计算复杂性。然而LS-SVM没有保留解的稀疏性。改进的最小二乘支持向量机有:递推最小二乘支持向量机[106]、加权最小二乘支持向量机[107]、多分辨率LS-SVM[108]及正则化最小二乘方法[109]等。Schölkoph等提出的-SVM方法[110],引入

8、反映超出管道之外样本数据点(即边界支持向量数量)和支持向量数的新参数,从而简化SVM的参数调节。其优化目标为:(3.25)表示边界支持向量机的上限和支持向量机的下限。与标准支持向量机相比优化求

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。