特征加权融合的在线多示例学习跟踪算法-core

特征加权融合的在线多示例学习跟踪算法-core

ID:33336532

大小:1.59 MB

页数:6页

时间:2019-02-24

特征加权融合的在线多示例学习跟踪算法-core_第1页
特征加权融合的在线多示例学习跟踪算法-core_第2页
特征加权融合的在线多示例学习跟踪算法-core_第3页
特征加权融合的在线多示例学习跟踪算法-core_第4页
特征加权融合的在线多示例学习跟踪算法-core_第5页
资源描述:

《特征加权融合的在线多示例学习跟踪算法-core》由会员上传分享,免费在线阅读,更多相关内容在工程资料-天天文库

1、ComputerEngineeringandApplications计算机工程与应用2015,51(12)189特征加权融合的在线多示例学习跟踪算法刘薇,戴平阳,李翠华LIUWei,DAIPingyang,LICuihua厦门大学信息科学与技术学院,福建厦门361005SchoolofInformationScienceandTechnology,XiamenUniversity,Xiamen,Fujian361005,ChinaLIUWei,DAIPingyang,LICuihua.Objecttrackingbasedononlinemultipleinst

2、ancelearningwithfeatureweightedfusion.ComputerEngineeringandApplications,2015,51(12):189-193.Abstract:Fortheobjecttrackingproblemsincomputervision,featureWeightedFusiononlineMultipleInstanceLearningtrackingalgorithm(WFMIL)isproposed.WFMILtrainstwofeatures(HogandHaar)classifierseparat

3、elybymultipleinstancelearningmethod.Inthetrackingprocess,theyareintegratedintoastrongclassifierbythelinearoperation.Whileinthelearn-ingprocess,weightisintroducedintoinstancesofpositivepackage.ExperimentalresultsshowthatWFMILcansolvetheobjectdriftandhasacertainrobustnessinhandlingoccl

4、usion,targetabruptmotion,illuminationchange,andmotionblur.Keywords:featurefusion;onlinemultipleinstancelearning;objecttracking摘要:为了能更加准确鲁棒地跟踪目标,提出了特征加权融合的在线多示例学习跟踪算法(WFMIL)。WFMIL在多示例学习框架下分别训练两种特征(Hog和Haar)分类器。在跟踪过程中,通过线性运算融合成一个强分类器,同时在学习过程中对正包中的示例引入权重。实验结果统计表明WFMIL能很好地解决目标漂移问题,并且对目标遮

5、挡、运动突变、光照变化以及运动模糊等具有较好的鲁棒性。关键词:特征融合;在线多示例学习;目标跟踪文献标志码:A中图分类号:TP391doi:10.3778/j.issn.1002-8331.1307-03501引言模,而后者只对各类数据的分界面进行建模。本文提出目标跟踪是计算机视觉领域非常重要的研究课题,的特征加权融合的在线多示例学习跟踪算法是基于多在智能监控、视频索引、人机交互等领域均有重要的应示例学习框架的判别式模型跟踪算法。用。目标跟踪过程中会经常碰到光照、外观及形状变准确、有效地选取目标特征对跟踪系统起着至关重化、运动模糊以及部分甚至完全遮挡等问题。因此

6、鲁棒要作用。目标特征中包含大量信息,有些是冗余且不相的视觉目标跟踪是一个非常具有挑战性的问题。关。如果不对特征信息加以选择,不相关的信息会严重根据建模对象的不同,跟踪模型分为产生式模型和影响分类器的性能。目前已有许多局部特征选择方法,[1][2]判别式模型。对于输入x,类别标签y,产生式模型是如Oza等提出了在线集成学习方法。该方法利用对新对观测序列的联合概率分布p(xy)建模,在得到联合概示例进行分类,把若干个单个分类器集成起来,通过对率分布之后,通过贝叶斯公式得到条件概率分布。而判多个分类器的分类结果进行某种组合决定最终分类,以别式模型是对p(y

7、x)建模

8、,通过x来预测y,在建模的取得比单个分类器更好的性能。但是,一旦当前帧检测过程中不需要关注联合概率分布只需要求解p(y

9、x)。的目标位置不准确,那么采样的正负样本也将会有误两者主要区别是:前者着重对数据的内在分布进行建差,最终导致训练的分类器是次优而不是最优。目标跟基金项目:国家自然科学基金(No.61373077);高等学校博士学科点专项科研基金(No.20110121110020);国家部委基础科研计划项目;国家部委科技重点实验室基金资助。作者简介:刘薇(1988—),女,硕士研究生,主要研究领域为计算机视觉;戴平阳(1975—),通讯作者,男,工程师,主要

10、研究领域为计算机视觉、模

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。