svm和基于pca、pls的svm在非线性辨识中的比较研究

svm和基于pca、pls的svm在非线性辨识中的比较研究

ID:15072513

大小:34.50 KB

页数:11页

时间:2018-08-01

svm和基于pca、pls的svm在非线性辨识中的比较研究_第1页
svm和基于pca、pls的svm在非线性辨识中的比较研究_第2页
svm和基于pca、pls的svm在非线性辨识中的比较研究_第3页
svm和基于pca、pls的svm在非线性辨识中的比较研究_第4页
svm和基于pca、pls的svm在非线性辨识中的比较研究_第5页
资源描述:

《svm和基于pca、pls的svm在非线性辨识中的比较研究》由会员上传分享,免费在线阅读,更多相关内容在教育资源-天天文库

1、SVM和基于PCA、PLS的SVM在非线性辨识中的比较研究第24卷第6期2007年6月计算机应用研究ApplicationResearchofComputersVo1.24No.6June2007SVM和基于PCA,PLS的SVM在非线性辨识中的比较研究术于春梅,杨胜波,陈馨,张洪才(1.西南科技大学信息工程学院.四川绵阳621010;2.西北工业大学自动化学院,陕西西安710072;3.上海大学机电工程与自动化学院,上海200072).摘要:对于同一个非线性系统,比较单纯£-不灵敏支持向量机方法和基于主元提取,基于偏最小二乘提取的£一不灵敏支持向量机方法在输入相关和不相关两种情况下

2、的拟合性能和抗干扰性能.仿真结果表明:"-3输入变量之间存在相关性时,基于特征提取的方法优于直接采用£一不灵敏支持向量机的方法.关键词:支持向量机;非线性系统辨识;偏最,J乘;主元分析中图分类号:TP13文献标志码:A文章编号:1001—3695(2007)06—0085—02ComparisonofSVM,PLS—basedSVM,andPCA—basedSVMforNonlinearSystemIdentificationYUChun.mei一,YANGSheng-bo,CHENXin,ZHANGHong—eal'(1.SchoolofInformationEngineedng,

3、SouthwestUniversityofScience&Technology,MianyangSiehuan621010,China;2.SchoolA啪眦-tion.NorthwesternPolytechnicalUnive~ity,f'anShanxi710072,China;3.CollegeofMechtronicsEngineering&Automation,ShanghaiUniversity,Shanghai200072,China)Abstract:T0comparetheperformancesof£一insensitiveSVM.PLS—bas

4、edSVMandPCA—basedSVM.twocasesofthe~931clenonlinearsystemforidentificationwereconsidered.0BeiSthattheinputvariablesarecorrelated.theotheriStheyareuncor-related.TheresultsshowedthatPLS.basedSVMandPCA—basedSVMperformmuchbettertllantllatwithoutfeatureextractioninthecaseofvariablescorrelation.Keywor

5、ds:supportvectormachine(SVM);nonlinearsystemidentification;partialleastsquares(PI5);principalcompo—nentanalysis(PCA)0引言非线性系统的辨识尤其是黑箱辨识一直是众多学者研究的热点问题之一.近年来出现的基于统计学习理论为基础的支持向量机(SVM),有机结合了统计理论,机器学习,优化理论等,根据结构风险最小化原则来自动学习模型的结构,通过调节控制参数来改变模型结构,成为继神经网络,模糊辨识等方法之后用于黑箱辨识的热点方法J.但是,SVM对干扰的抑制能力非常有限,尤其在输入空间

6、维数较大且存在相关时,即使是£-不灵敏支持向量机等改进方法也不能完全解决这个问题.因此,如何使其有效抑制干扰就成为SVM用于实际工程的一大问题.多变量投影方法如主元分析方法(PCA),偏最小二乘方法(PLS)将多变量高维数据空间投影到相对独立的低维空间,以消除数据的相关性,对噪声也可以起到有效的抑制作用.因此,这类方法在工业过程监控中获得了广泛的应用H.基于这样的考虑,本文首先用PCA,PLS方法消除数据的相关性,并降低干扰的影响.处理后的数据用SVM进行学习以获得辨识参数.1原理介绍.1.1PCA简介设输入矩阵XR.其中每一列对应一个观测变量,每一行对应一个样本.矩阵X可以分解为X

7、=tlPl+t2p2+…+trap=77,r(1)其中,t∈R为得分向量,P∈R为负荷向量;相应地,7-=[t.,tz,…,t]为得分矩阵,P=[PP:,…,P]为负荷矩阵.得分向量和负荷向量皆互相正交,且负荷向量为单位向量,即tiTtj=0,piTpj:0,i#j(2)Pi=1,i:,(3)将式(1)等式两边同时右乘p,并将式(2)和(3)代入,得t.:i或7-=XP收稿日期:2006—01—04;修返日期:2006?04—13基金项目:四川省教育厅资助

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。